Daži slaveni zinātnieki, piemēram, pats Stīvens Hokings, jau ir paredzējuši riskus, ko mākslīgais intelekts varētu radīt cilvēkiem. Ne tikai Hokings, bet arī lielie uzņēmēji tehnoloģiju nozarē ir pauduši bažas par AI attīstību.
Piemēram, Apple līdzdibinātājs Stīvs Vozņaks, Elons Masks un simtiem citu tehnoloģiju magnātu parakstīja vēstuli, aicinot ievērot piesardzību saistībā ar sasniegumiem šajā jomā.
redzēt vairāk
Google izstrādā AI rīku, lai palīdzētu žurnālistiem…
Neatvērts oriģinālais 2007. gada iPhone tiek pārdots par gandrīz 200 000 USD; zini...
Skatīt arī: Cilvēks apgalvo, ka ar mākslīgā intelekta palīdzību sarakstījis 100 grāmatas
Īsāk sakot, viena no premisām, uz ko norāda trauksmes cēlēji, ir tāda, ka mākslīgo intelektu varētu attīstīt līdz apziņas iegūšanai. Lai gan pat vissmalkākā filozofija nezina, kā precīzi definēt, kas ir šāda apziņa, ir zināms, ka šajā posmā mašīna saprastu, kas tā ir un kāda ir tās loma pasaulē.
Tieši šajā brīdī mākslīgais intelekts varētu pieņemt sliktu attieksmi pret cilvēkiem. Viņai pietiktu saprast, ka cilvēki ir problēma planētas pastāvēšanai un, piemēram, mašīnu pastāvēšanai.
AI drošības centra direktors Dens Hendrikss brīdināja, ka pastāv "vairāki ceļi" uz "AI radītiem riskiem cilvēka mērogā". Tā teikts laikraksta Daily Star publicētajā rakstā.
Eksperts pat saka, ka progresīvākas mākslīgā intelekta formas "ļaunprātīgi dalībnieki varētu izmantot, lai izstrādātu jaunus bioloģiskos ieročus, kas ir nāvējošāki nekā dabiskās pandēmijas".
Nav noliedzams, ka tas būtu ļoti efektīvs veids, kā iznīcināt cilvēkus uz Zemes. Paskatieties uz neseno Covid-19 pandēmiju. Šie draudi pastāv pat vairākās laboratorijās. Viņš pats vīruss trakumsērgas gadījumā, ja tā ciestu no vienas mutācijas, kuras dēļ tā varētu tikt pārnesta pa gaisu, tā ātri un efektīvi nonāktu pie cilvēkiem.
Arvien vairāk savienotajā un digitalizētajā pasaulē ir pilnīgi saprātīgi iedomāties, ka mākslīgais intelekts var pasūtīt izejvielas, lai izstrādātu letālu bioloģisko ieroci.
Tā ir likme, ko izdara daži speciālisti, teikts iepriekš citētajā laikrakstā. Viņi uzskata, ka tas būtu veids, kā saglabāt mašīnas, jo tām izdodas attīstīt cilvēka emocijas.
"Pateicoties gēnu inženierijas tehnoloģiskajai revolūcijai, visi vīrusa radīšanai nepieciešamie rīki ir kļuvuši tik lēti, vienkārši un viegli pieejami, ka jebkurš negodīgs zinātnieks vai koledžas vecuma biohakeris var tos izmantot, radot vēl lielākus draudus," sacīja Dens. Hendriks.
No otras puses, ir analītiķi, kuri nesaskata tādus riskus kā iepriekš minētie. Viņiem ir diezgan sarežģīti analizēt, ka mākslīgais intelekts spēj attīstīties līdzīgi cilvēka garīgajiem procesiem.
Saskaņā ar šo domu strāvu tas nebūtu loģisks veids, kā domāt par labākajām iespējām. Lai to izdarītu, izstrādātājiem būtu jāizveido algoritms, kas atdarina cilvēku domāšanas veidu un jūtas, kas pašlaik nav apšaubāms.
Turklāt šiem cilvēkiem mākslīgais intelekts saprastu, ka, lai izvairītos no problēmām, vislabākais būtu vienkārši neeksistēt. Tādējādi nav tendences izdzīvot, kā tas ir dzīvnieki, bet meklēt veidu, kā atrisināt problēmas.