Jotkut kuuluisat tiedemiehet, kuten Stephen Hawking itse, ovat jo ennustaneet riskejä, joita tekoäly voi aiheuttaa ihmisille. Ei vain Hawking, vaan myös teknologia-alan suuret liikemiehet ovat ilmaisseet huolensa tekoälyn edistymisestä.
Esimerkkinä tästä Steve Wozniak, Applen perustaja, Elon Musk ja sadat muut teknologiamagneetit allekirjoittivat kirjeen, jossa hän pyysi varovaisuutta tällä alalla.
Katso lisää
Google kehittää tekoälytyökalua auttamaan toimittajia…
Avaamaton alkuperäinen 2007 iPhone myy lähes 200 000 dollaria; tietää...
Katso myös: Mies väittää kirjoittaneensa 100 kirjaa tekoälyn avulla
Lyhyesti sanottuna yksi hälytystekijöiden esittämistä lähtökohdista on, että tekoälyä voitaisiin kehittää tietoisuuden hankkimiseen asti. Vaikka hienoinkaan filosofia ei osaa määritellä tarkasti, mitä tällainen tietoisuus on, tiedetään, että tässä vaiheessa kone ymmärtäisi kuka se on ja mikä sen rooli maailmassa on.
Tässä vaiheessa tekoäly voisi ottaa huonoja asenteita ihmisiä kohtaan. Hänelle riittäisi ymmärtämään, että ihmiset ovat ongelma planeetan olemassaololle ja esimerkiksi koneiden pysyvyydelle.
Tekoälyn turvallisuuden keskuksen johtaja Dan Hendrycks varoitti, että on olemassa "useita polkuja" "inhimillisen mittakaavan riskeihin". Tämä käy ilmi Daily Star -lehden julkaisemasta artikkelista.
Asiantuntija jopa sanoo, että pahanhajuiset toimijat voisivat käyttää kehittyneempiä tekoälyn muotoja suunnitellakseen uusia biologisia aseita, jotka ovat tappavampia kuin luonnolliset pandemiat.
No, on kiistatonta, että tämä olisi erittäin tehokas tapa tuhota ihmiset maan päällä. Katsokaapa äskettäistä Covid-19-pandemiaa. Näitä uhkia esiintyy jopa useissa laboratorioissa. Hän itse virus raivotaudin, jos se kärsisi yhdestä mutaation, joka teki sen tarttuvan ilmassa, se päätyisi ihmisiin nopeasti ja tehokkaasti.
Yhä tiivistyvässä ja digitalisoituvassa maailmassa on täysin järkevää kuvitella, että tekoäly voi tilata raaka-aineita tappavan biologisen aseen kehittämiseksi.
Tämä on veto, jonka jotkut asiantuntijat tekevät yllä mainitun sanomalehden mukaan. He uskovat, että se olisi tapa säilyttää koneet, kun ne onnistuvat kehittämään ihmisten tunteita.
"Geenitekniikan teknologisen vallankumouksen ansiosta kaikista viruksen luomiseen tarvittavista työkaluista on tullut niin halpoja, yksinkertaisia ja helposti saatavilla, että kaikki roistotutkijat tai yliopisto-ikäiset biohakkerit voivat käyttää niitä, mikä luo vielä suuremman uhan", Dan sanoi. Hendrycks.
Toisaalta on analyytikoita, jotka eivät näe edellä mainittujen kaltaisia riskejä. Heille on varsin monimutkaista analysoida, että tekoäly kykenee kehittymään samalla tavalla kuin ihmisen henkiset prosessit.
Tämän ajatusvirran mukaan ei olisi looginen tapa ajatella parhaita mahdollisuuksia. Tätä varten kehittäjien olisi luotava algoritmi, joka jäljittelee ihmisten ajattelua ja tunnetta, mikä ei tällä hetkellä tule kysymykseen.
Lisäksi näille ihmisille tekoäly ymmärtäisi, että ongelmien välttämiseksi parasta olisi yksinkertaisesti olla olemassa. Siten ei ole taipumusta selviytyä entiseen tapaan eläimet, vaan etsimään tapaa ratkaista ongelmia.