Mõned kuulsad teadlased, nagu Stephen Hawking ise, on juba ennustanud riske, mida tehisintellekt võib inimestele põhjustada. Mitte ainult Hawking, vaid ka tehnoloogiasektori suurärimehed on väljendanud muret tehisintellekti arengu pärast.
Näiteks Apple'i kaasasutaja Steve Wozniak, Elon Musk ja sajad teised tehnoloogiamagnaatid allkirjastasid kirja, milles palusid selles valdkonnas ettevaatust.
näe rohkem
Google arendab AI tööriista, mis aitab ajakirjanikel…
Avamata originaal 2007 iPhone müüb peaaegu $ 200 000; tea...
Vaata ka: Inimene väidab, et on tehisintellekti abil kirjutanud 100 raamatut
Ühesõnaga, üks eeldus, millele alarmistid välja toovad, on see, et tehisintellekti võiks arendada kuni teadvuse saamiseni. Kuigi isegi kõige peenem filosoofia ei tea, kuidas täpselt määratleda, mis selline teadvus on, on teada, et selles etapis saab masin aru, kes see on ja milline on tema roll maailmas.
Siinkohal võib tehisintellekt inimeste suhtes halvasti suhtuda. Piisaks, kui ta mõistaks, et inimesed on probleem planeedi olemasolu ja näiteks masinate püsivuse jaoks.
Tehisintellekti ohutuse keskuse direktor Dan Hendrycks hoiatas, et tehisintellektist tulenevate inimmastaapsete riskide tekkeks on mitu võimalust. Nii selgub ajalehe Daily Star avaldatud artiklist.
Ekspert ütleb isegi, et tehisintellekti arenenumaid vorme "võivad pahatahtlikud osalejad kasutada uute bioloogiliste relvade kavandamiseks, mis on surmavamad kui looduslikud pandeemiad".
Noh, on vaieldamatu, et see oleks väga tõhus viis inimeste hävitamiseks Maal. Vaadake lihtsalt hiljutist Covid-19 pandeemiat. Need ohud eksisteerivad isegi mitmes laboris. Ise viirus marutaudi puhul, kui sellel esineks üks mutatsioon, mis muudaks selle õhu kaudu edasi kanduvaks, jõuaks see kiiresti ja tõhusalt inimesteni.
Üha enam ühendatud ja digitaliseeruvas maailmas on täiesti mõistlik ette kujutada, et tehisintellekt võib tellida toorainet surmava bioloogilise relva väljatöötamiseks.
Eespool viidatud ajalehe andmetel teevad mõned spetsialistid selle panuse. Nad usuvad, et see oleks viis masinate säilitamiseks, kui neil õnnestub arendada inimlikke emotsioone.
"Tänu tehnoloogilisele revolutsioonile geenitehnoloogias on kõik viiruse loomiseks vajalikud tööriistad muutunud nii odavaks, lihtsaks ja kergesti kättesaadavad, et iga petis teadlane või ülikooliealine biohäkker saab neid kasutada, tekitades veelgi suurema ohu," ütles Dan. Hendrycks.
Teisalt on analüütikuid, kes selliseid riske nagu eespool mainitud ei näe. Nende jaoks on üsna keeruline analüüsida, et tehisintellekt on võimeline arenema sarnaselt inimese vaimsete protsessidega.
Selle mõttevoolu järgi poleks loogiline viis mõelda parimatele võimalustele. Selleks peaksid arendajad looma algoritmi, mis jäljendab inimeste mõtte- ja tundeid, mis praegu ei tule kõne allagi.
Lisaks mõistaks tehisintellekt nende inimeste jaoks, et probleemide vältimiseks oleks parim asi lihtsalt mitte eksisteerida. Seega pole kalduvust ellu jääda nagu praegu loomad, vaid otsida võimalusi probleemide lahendamiseks.