Noen kjente forskere, som Stephen Hawking selv, har allerede spådd risikoen som kunstig intelligens kan utgjøre for mennesker. Ikke bare Hawking, men store forretningsmenn i teknologisektoren har også uttrykt bekymring for utviklingen av AI.
Som et eksempel på dette signerte Apples medgründer Steve Wozniak, Elon Musk og hundrevis av andre teknologimagnater et brev for å be om forsiktighet med fremskritt på dette området.
se mer
Google utvikler AI-verktøy for å hjelpe journalister i...
Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...
Se også: Mennesket hevder å ha skrevet 100 bøker ved hjelp av kunstig intelligens
Kort fortalt er et av premissene som alarmistene trekker frem at kunstig intelligens kunne utvikles til bevissthet. Selv om selv den fineste filosofi ikke vet hvordan den skal definere nøyaktig hva en slik bevissthet er, er det kjent at på dette stadiet vil en maskin forstå hvem den er og hva dens rolle i verden er.
Det ville være på dette tidspunktet at kunstig intelligens kunne ha dårlige holdninger til mennesker. Det ville være nok for henne å forstå at mennesker er et problem for eksistensen av planeten og for selve varigheten til maskiner, for eksempel.
Dan Hendrycks, direktør for Senter for AI-sikkerhet, advarte om at det er "flere veier" til "risikoer i menneskelig skala fra AI". Dette ifølge en artikkel publisert av avisen Daily Star.
Eksperten sier til og med at mer avanserte former for kunstig intelligens «kan bli brukt av ondsinnede aktører for å designe nye biologiske våpen som er mer dødelige enn naturlige pandemier».
Vel, det er ubestridelig at dette ville være en veldig effektiv måte å utrydde mennesker på jorden. Bare se på den nylige Covid-19-pandemien. Disse truslene eksisterer til og med i flere laboratorier. Han selv virus av rabies, hvis den led en enkelt mutasjon, som gjorde den overførbar gjennom luften, ville den ende opp hos mennesker raskt og effektivt.
I en stadig mer tilkoblet og digitalisert verden er det helt rimelig å forestille seg at en kunstig intelligens kan bestille råvarer for å utvikle et dødelig biologisk våpen.
Dette er innsatsen som noen spesialister gjør, ifølge avisen sitert ovenfor. De tror det ville være en måte å bevare maskiner på når de klarer å utvikle menneskelige følelser.
"Takket være en teknologisk revolusjon innen genteknologi har alle verktøyene som trengs for å lage et virus blitt så billige, enkle og lett tilgjengelig for at enhver useriøs vitenskapsmann eller biohacker i høyskolealderen kan bruke dem, og skaper en enda større trussel," sa Dan Hendrycks.
På den annen side er det analytikere som ikke ser risikoer som de som er nevnt ovenfor. For dem er det ganske komplisert å analysere at en kunstig intelligens er i stand til å utvikle seg på samme måte som menneskelige mentale prosesser.
I følge denne tankestrømmen ville det ikke være en logisk måte å tenke på de beste mulighetene. For dette måtte utviklere lage en algoritme som etterligner folks måte å tenke og føle på, noe som foreløpig er uaktuelt.
Dessuten, for disse menneskene, ville kunstig intelligens innse at for å unngå problemer, ville det beste å gjøre ganske enkelt være å ikke eksistere. Dermed er det ingen tendens til å overleve som i dyr, men å se etter måten å løse problemer på.