Unii oameni de știință celebri, precum Stephen Hawking însuși, au prezis deja riscurile pe care le-ar putea prezenta inteligența artificială pentru oameni. Nu numai Hawking, ci și marii oameni de afaceri din sectorul tehnologiei și-au exprimat îngrijorarea cu privire la progresul AI.
Ca exemplu în acest sens, Steve Wozniak, co-fondatorul Apple, Elon Musk și sute de alți magnați ai tehnologiei au semnat o scrisoare pentru a cere prudență în ceea ce privește progresele în acest domeniu.
Vezi mai mult
Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...
iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...
Vezi si: Omul susține că a scris 100 de cărți cu ajutorul inteligenței artificiale
Pe scurt, una dintre premisele pe care le subliniază alarmiştii este că inteligenţa artificială ar putea fi dezvoltată până la dobândirea conştiinţei. Deși nici cea mai fină filozofie nu știe să definească exact ce este o astfel de conștiință, se știe că în acest stadiu o mașină ar înțelege cine este și care este rolul ei în lume.
În acest moment, inteligența artificială ar putea lua atitudini proaste față de oameni. Ar fi suficient ca ea să înțeleagă că oamenii sunt o problemă pentru existența planetei și pentru însăși permanența mașinilor, de exemplu.
Dan Hendrycks, directorul Centrului pentru Siguranța AI, a avertizat că există „căi multiple” către „riscurile la scară umană din IA”. Acest lucru este potrivit unui articol publicat de ziarul Daily Star.
Expertul spune chiar că forme mai avansate de inteligență artificială „ar putea fi folosite de actori rău intenționați pentru a proiecta noi arme biologice care sunt mai letale decât pandemiile naturale”.
Ei bine, este de netăgăduit că aceasta ar fi o modalitate foarte eficientă de a extermina ființele umane de pe Pământ. Uită-te la recenta pandemie de Covid-19. Aceste amenințări există chiar și în mai multe laboratoare. Se virus a rabiei, dacă ar suferi o singură mutație, care să-l facă transmisibil prin aer, ar ajunge la ființe umane rapid și eficient.
Într-o lume din ce în ce mai conectată și digitalizată, este perfect rezonabil să ne imaginăm că o inteligență artificială poate comanda materii prime pentru a dezvolta o armă biologică letală.
Acesta este pariul pe care îl fac unii specialiști, potrivit ziarului citat mai sus. Ei cred că ar fi o modalitate de a conserva mașinile pe măsură ce reușesc să dezvolte emoțiile umane.
„Datorită revoluției tehnologice în inginerie genetică, toate instrumentele necesare pentru a crea un virus au devenit atât de ieftine, simple și ușor disponibile pe care orice om de știință necinstiți sau biohacker de vârstă universitară le poate folosi, creând o amenințare și mai mare”, a spus Dan. Hendrycks.
Pe de altă parte, există analiști care nu văd riscuri precum cele menționate mai sus. Pentru ei, este destul de complex să analizăm că o inteligență artificială este capabilă să evolueze în mod similar proceselor mentale umane.
Conform acestui curent de gândire, nu ar fi un mod logic de a gândi cele mai bune posibilități. Pentru aceasta, dezvoltatorii ar trebui să creeze un algoritm care să imite modul de a gândi și de a simți al oamenilor, lucru care în prezent este exclus.
Mai mult, pentru acești oameni, inteligența artificială ar realiza că, pentru a evita problemele, cel mai bun lucru de făcut ar fi pur și simplu să nu existe. Astfel, nu există nicio tendință de a supraviețui ca în animalelor, ci să caute modalitatea de a rezolva problemele.