Nogle berømte videnskabsmænd, som Stephen Hawking selv, har allerede forudsagt de risici, kunstig intelligens kan udgøre for mennesker. Ikke kun Hawking, men store forretningsmænd i teknologisektoren har også udtrykt bekymring over udviklingen af kunstig intelligens.
Som et eksempel på dette underskrev Steve Wozniak, medstifter af Apple, Elon Musk og hundredvis af andre teknologimagnater et brev for at bede om forsigtighed med fremskridt på dette område.
se mere
Google udvikler AI-værktøj til at hjælpe journalister i...
Uåbnet original 2007 iPhone sælges for næsten $200.000; ved godt...
Se også: Mennesket hævder at have skrevet 100 bøger ved hjælp af kunstig intelligens
Kort sagt er en af de præmisser, som alarmisterne påpeger, at kunstig intelligens kunne udvikles til bevidsthed. Selvom selv den fineste filosofi ikke ved, hvordan man præcist definerer, hvad en sådan bevidsthed er, er det kendt, at en maskine på dette stadium ville forstå, hvem den er, og hvad dens rolle i verden er.
Det ville være på dette tidspunkt, at kunstig intelligens kunne have dårlige holdninger til mennesker. Det ville være nok for hende at forstå, at mennesker er et problem for eksistensen af planeten og for selve varigheden af maskiner, for eksempel.
Dan Hendrycks, direktør for Center for AI-sikkerhed, advarede om, at der er "flere veje" til "menneskelige risici fra AI". Det fremgår af en artikel offentliggjort af avisen Daily Star.
Eksperten siger endda, at mere avancerede former for kunstig intelligens "kunne blive brugt af ondsindede aktører til at designe nye biologiske våben, der er mere dødelige end naturlige pandemier."
Nå, det er ubestrideligt, at dette ville være en meget effektiv måde at udrydde mennesker på Jorden. Bare se på den seneste Covid-19-pandemi. Disse trusler findes endda inden for flere laboratorier. Ham selv virus af rabies, hvis den led en enkelt mutation, som gjorde den overført gennem luften, ville den ende hos mennesker hurtigt og effektivt.
I en stadig mere forbundet og digitaliseret verden er det helt rimeligt at forestille sig, at en kunstig intelligens kan bestille råvarer til at udvikle et dødeligt biologisk våben.
Dette er væddemålet, som nogle specialister foretager, ifølge den ovenfor citerede avis. De mener, at det ville være en måde at bevare maskiner på, når de formår at udvikle menneskelige følelser.
"Takket være en teknologisk revolution inden for genteknologi er alle de nødvendige værktøjer til at skabe en virus blevet så billige, enkle og let tilgængelige, så enhver slyngel videnskabsmand eller biohacker i universitetsalderen kan bruge dem, hvilket skaber en endnu større trussel,” sagde Dan Hendrycks.
På den anden side er der analytikere, der ikke ser risici som dem, der er nævnt ovenfor. For dem er det ret komplekst at analysere, at en kunstig intelligens er i stand til at udvikle sig på samme måde som menneskelige mentale processer.
Ifølge denne tankestrøm ville det ikke være en logisk måde at tænke de bedste muligheder på. Til dette ville udviklere være nødt til at skabe en algoritme, der efterligner folks måde at tænke og føle på, noget der i øjeblikket er udelukket.
Desuden ville kunstig intelligens for disse mennesker indse, at for at undgå problemer ville den bedste ting at gøre simpelthen være ikke at eksistere. Der er således ingen tendens til at overleve som i dyr, men at lede efter måden at løse problemer på.