Vissa kända forskare, som Stephen Hawking själv, har redan förutspått riskerna som artificiell intelligens kan innebära för människor. Inte bara Hawking, utan stora affärsmän inom tekniksektorn har också uttryckt oro över AI: s framsteg.
Som ett exempel på detta undertecknade Steve Wozniak, medgrundare av Apple, Elon Musk och hundratals andra teknikmagnater ett brev för att be om försiktighet med framsteg på detta område.
se mer
Google utvecklar AI-verktyg för att hjälpa journalister i...
Oöppnad original 2007 iPhone säljs för nästan $200 000; känna till...
Se också: Människan säger sig ha skrivit 100 böcker med hjälp av artificiell intelligens
Kort sagt, en av premisserna som alarmisterna pekar på är att artificiell intelligens skulle kunna utvecklas till att man skaffar sig medvetande. Även om inte ens den finaste filosofin vet hur man exakt definierar vad ett sådant medvetande är, är det känt att i detta skede skulle en maskin förstå vem den är och vad dess roll i världen är.
Det skulle vara vid denna tidpunkt som artificiell intelligens kunde ha dåliga attityder mot människor. Det skulle räcka för henne att förstå att människor är ett problem för till exempel planetens existens och själva beständigheten hos maskiner.
Dan Hendrycks, chef för Center for AI Safety, varnade för att det finns "flera vägar" till "risker i mänsklig skala från AI". Detta enligt en artikel publicerad av tidningen Daily Star.
Experten säger till och med att mer avancerade former av artificiell intelligens "kan användas av illvilliga aktörer för att designa nya biologiska vapen som är mer dödliga än naturliga pandemier."
Tja, det är obestridligt att detta skulle vara ett mycket effektivt sätt att utrota människor på jorden. Se bara på den senaste Covid-19-pandemin. Dessa hot finns till och med inom flera laboratorier. Han själv virus av rabies, om den drabbades av en enda mutation, som gjorde den överförbar genom luften, skulle den hamna hos människor snabbt och effektivt.
I en allt mer uppkopplad och digitaliserad värld är det fullt rimligt att föreställa sig att en artificiell intelligens kan beställa råvaror för att utveckla ett dödligt biologiskt vapen.
Detta är vad vissa specialister gör, enligt tidningen som citeras ovan. De tror att det skulle vara ett sätt att bevara maskiner när de lyckas utveckla mänskliga känslor.
"Tack vare en teknisk revolution inom genteknik har alla verktyg som behövs för att skapa ett virus blivit så billiga, enkla och lättillgängliga så att alla oseriösa forskare eller biohacker i universitetsåldern kan använda dem, vilket skapar ett ännu större hot”, sa Dan Hendrycks.
Å andra sidan finns det analytiker som inte ser risker som de som nämnts ovan. För dem är det ganska komplicerat att analysera att en artificiell intelligens kan utvecklas på samma sätt som mänskliga mentala processer.
Enligt denna tankeströmning skulle det inte vara ett logiskt sätt att tänka på de bästa möjligheterna. För detta skulle utvecklare behöva skapa en algoritm som efterliknar människors sätt att tänka och känna, något som för närvarande är uteslutet.
Dessutom, för dessa människor, skulle artificiell intelligens inse att för att undvika problem skulle det bästa man kan göra helt enkelt att inte existera. Det finns alltså ingen tendens att överleva som i djur, men att leta efter sättet att lösa problem.