Někteří slavní vědci, jako sám Stephen Hawking, již předpověděli rizika, která by umělá inteligence mohla pro lidi představovat. Nejen Hawking, ale i velcí byznysmeni v technologickém sektoru vyjádřili obavy z pokroku AI.
Jako příklad toho Steve Wozniak, spoluzakladatel Applu, Elon Musk a stovky dalších technologických magnátů podepsali dopis, v němž žádají o opatrnost s pokroky v této oblasti.
vidět víc
Google vyvíjí nástroj AI, který má novinářům pomoci v…
Neotevřený původní iPhone z roku 2007 se prodává za téměř 200 000 $; vědět...
Viz také: Člověk tvrdí, že s pomocí umělé inteligence napsal 100 knih
Stručně řečeno, jedna z premis, na kterou alarmisté upozorňují, je, že umělá inteligence by mohla být vyvinuta až k nabytí vědomí. Ačkoli ani ta nejlepší filozofie neví, jak přesně definovat, co takové vědomí je, je známo, že v této fázi by stroj pochopil, kdo to je a jaká je jeho role ve světě.
Právě v tomto bodě by umělá inteligence mohla zaujmout špatný postoj k lidem. Stačilo by, aby pochopila, že lidé jsou problém pro existenci planety a například pro samotnou stálost strojů.
Dan Hendrycks, ředitel Centra pro bezpečnost AI, varoval, že existuje „několik cest“ k „rizikům AI v lidském měřítku“. Vyplývá to z článku, který zveřejnil deník Daily Star.
Expert dokonce říká, že pokročilejší formy umělé inteligence „by mohly být použity zlomyslnými aktéry k navrhování nových biologických zbraní, které jsou smrtelnější než přírodní pandemie“.
Je nepopiratelné, že by to byl velmi účinný způsob, jak vyhubit lidské bytosti na Zemi. Stačí se podívat na nedávnou pandemii Covid-19. Tyto hrozby dokonce existují v několika laboratořích. Sám virus vztekliny, pokud by utrpěl jedinou mutaci, díky které by byl přenosný vzduchem, rychle a efektivně by skončil u lidí.
Ve stále více propojeném a digitalizovaném světě je naprosto rozumné si představit, že umělá inteligence může objednávat suroviny k vývoji smrtící biologické zbraně.
To je sázka, kterou někteří specialisté uzavírají, podle výše citovaných novin. Věří, že by to byl způsob, jak zachovat stroje, protože se jim daří rozvíjet lidské emoce.
„Díky technologické revoluci v genetickém inženýrství se všechny nástroje potřebné k vytvoření viru staly tak levnými, jednoduchými a jednoduchými jsou snadno dostupné, takže je může použít každý nepoctivý vědec nebo vysokoškolský biohacker, což vytváří ještě větší hrozbu,“ řekl Dan Hendrycks.
Na druhé straně jsou analytici, kteří výše zmíněná rizika nevidí. Pro ně je poměrně složité analyzovat, že umělá inteligence je schopna se vyvíjet podobně jako lidské mentální procesy.
Podle tohoto myšlenkového proudu by nebylo logické uvažovat o nejlepších možnostech. K tomu by vývojáři museli vytvořit algoritmus, který by napodoboval způsob myšlení a cítění lidí, což je něco, o čem v současnosti nemůže být řeč.
Kromě toho by si umělá inteligence pro tyto lidi uvědomila, že aby se předešlo problémům, bylo by nejlepší prostě neexistovat. Neexistuje tedy tendence přežít jako v zvířat, ale hledat cestu k řešení problémů.