Neki poznati znanstvenici, poput samog Stephena Hawkinga, već su predvidjeli rizike koje bi umjetna inteligencija mogla predstavljati za ljude. Ne samo Hawking, već i veliki poslovni ljudi u tehnološkom sektoru također su izrazili zabrinutost zbog napretka umjetne inteligencije.
Kao primjer toga, Steve Wozniak, suosnivač Applea, Elon Musk i stotine drugih tehnoloških tajkuna potpisali su pismo u kojem traže oprez s napretkom u ovom području.
vidi više
Google razvija AI alat za pomoć novinarima u...
Neotvoreni originalni iPhone iz 2007. prodaje se za gotovo 200.000 dolara; znati...
Vidi također: Čovjek tvrdi da je napisao 100 knjiga uz pomoć umjetne inteligencije
Ukratko, jedna od premisa koje alarmisti ističu jest da bi se umjetna inteligencija mogla razviti do točke stjecanja svijesti. Iako ni najfinija filozofija ne zna točno definirati što je takva svijest, poznato je da bi u ovoj fazi stroj shvatio tko je i koja je njegova uloga u svijetu.
U ovom bi trenutku umjetna inteligencija mogla zauzeti loš stav prema ljudima. Bilo bi dovoljno da shvati da su ljudi problem za postojanje planeta i za samu postojanost strojeva, na primjer.
Dan Hendrycks, direktor Centra za sigurnost umjetne inteligencije, upozorio je da postoji "višestruki putevi" do "rizika od umjetne inteligencije na ljudskoj razini". To je prema članku koji su objavile novine Daily Star.
Stručnjak čak kaže da bi naprednije oblike umjetne inteligencije "zlonamjerni akteri mogli koristiti za dizajn novih bioloških oružja koja su smrtonosnija od prirodnih pandemija".
Pa, neporecivo je da bi ovo bio vrlo učinkovit način za istrebljenje ljudskih bića na Zemlji. Pogledajte samo nedavnu pandemiju Covid-19. Ove prijetnje čak postoje unutar nekoliko laboratorija. Sam virus bjesnoće, ako bi pretrpjela jednu mutaciju, koja bi je učinila prenosivom kroz zrak, brzo bi i učinkovito završila među ljudskim bićima.
U sve povezanijem i digitaliziranom svijetu, savršeno je razumno zamisliti da umjetna inteligencija može naručiti sirovine za razvoj smrtonosnog biološkog oružja.
To je oklada koju neki stručnjaci čine, prema gore citiranim novinama. Vjeruju da bi to bio način da se sačuvaju strojevi jer oni uspijevaju razviti ljudske emocije.
“Zahvaljujući tehnološkoj revoluciji u genetskom inženjeringu, svi alati potrebni za stvaranje virusa postali su toliko jeftini, jednostavni i lako dostupni da ih može upotrijebiti bilo koji pokvareni znanstvenik ili biohaker s fakulteta, stvarajući još veću prijetnju,” rekao je Dan Hendrycks.
S druge strane, postoje analitičari koji ne vide rizike poput gore navedenih. Za njih je prilično složeno analizirati da se umjetna inteligencija može razvijati slično ljudskim mentalnim procesima.
Prema ovoj struji mišljenja, ne bi bilo logično razmišljati o najboljim mogućnostima. Za to bi programeri morali stvoriti algoritam koji oponaša način razmišljanja i osjećaja ljudi, nešto što trenutno ne dolazi u obzir.
Nadalje, za te bi ljude umjetna inteligencija shvatila da bi za izbjegavanje problema najbolje bilo jednostavno ne postojati. Dakle, nema tendencije preživljavanja kao u životinje, već tražiti način rješavanja problema.