A OpenAI, a ChatGPT anyavállalata napokig tartó adminisztratív instabilitásnak néz szembe az alkotója, Sam Altman megjelenésével.
Mintha ez még nem lenne elég, olyan információk láttak napvilágot, hogy nem sokkal azelőtt az azóta visszahelyezett Altman elbocsátásáról a cég igazgatósága jelentést kapott riasztó.
többet látni
A Nestlé bejelenti a Chamyto Box vonal diverzifikálását északkeleten
Hamarosan a Vivo 5G-kapcsolatot kínál vezetékes interneten keresztül; többet tud!
A dokumentumban a kutatók rámutattak arra, hogy a Q*, vagyis Q-Star nevű mesterségesintelligencia-program készül párhuzamosan fejlődött, komoly kockázatot jelenthet az emberiség stabilitására a jövő.
A Reuters hírügynökség szerint, amely ezt az információt kiadta, a Q* kiterjedt számítási teljesítményt használ, hogy alapvetően alapvető szintű matematikai kérdéseket válaszoljon meg.
A technológiát fejlesztő kutatókat első pillantásra izgatta a tény, hogy viszonylag rövid időn belül és teljes mértékben tud válaszolni a kérdésekre autonóm.
A veszély azonban, amelyet ez az új mesterséges intelligencia jelent, nem ebben az alapvető felfogásban rejlik. Hiszen az egyszerű számológépek is képesek kevésbé bonyolult matematikai műveleteket végrehajtani.
Ami igazán riasztotta a szakértőket, az az, ahogy a Q-Star válaszol kérdéseikre. Ahelyett, hogy statikus számítási mintákat használna, mint például a hagyományos számológépek bináris kódjai, az AI egyedi mintákat használ minden egyes válaszban.
Vagyis a Q* minden elé kerülő kérdésre többféle választ adhat, ami teret enged a „találmányoknak”, sőt a félrevezető adatok megadásának.
(Kép: Freepik/reprodukció)
A jelenlegi fanfár ellenére ez a Q-Star-nál megfigyelt viselkedés nem újdonság a mesterséges intelligencia világában.
Egyéb intelligens chatbotok, beleértve a sajátját is ChatGPT, a saját edzésmódszerükből adódó kudarcokban már „elkapták”.
Általánosságban elmondható, hogy az AI-t úgy képezték ki, hogy pontosan olyanok legyenek, mint az emberi agy. Más szóval, elemezniük kell a nekik adott információkat, hogy megpróbálják azonosítani a mintákat, és dolgozzanak azokon. Ez a logika teszi lehetővé számunkra, emberek számára, hogy tanuljunk és tudást adjunk át.
Az ilyen „okoskodási” hatalom gépekre való delegálása azonban veszélyes precedenst teremthet egyfajta „lázadásra” az emberiség ellen.
Ennek az az oka, hogy semmi sem akadályozza meg a mesterséges intelligenciát abban, hogy a minták elemzésén keresztül következtetéseket vonjon le hogy az emberiség fenyegetést jelent, vagy hogy egy bizonyos személyt meg kell szüntetni példa.
Ennél is rosszabb, hogy a mesterséges intelligencia a bűnözők által bűncselekmények elkövetésére, politikai és kereskedelmi döntésekbe való beavatkozásra, az emberek képének elcsúfítására stb.
Egy bizonyos személy képének „bepiszkolásához” egyszerűen adjon az MI-nek negatív információkat az adott személyről. Másrészt az olyan chatbotok, mint a ChatGPT, valamilyen módon utasíthatók arra, hogy befolyásolják az embereket, hogy ragaszkodjanak ehhez vagy ahhoz a politikai szemponthoz.
Ahogy a mesterséges intelligencia fejlődik és a társadalom minden szektorában elterjed, az etikus és békés felhasználásával kapcsolatos aggályoknak kell a vita középpontjába kerülniük.
A mesterséges intelligencia célja az emberiség következő szintre emelése kell, hogy legyen, nem pedig az, hogy segítsen a bűnözőkön, vagy fegyverként szolgáljon az emberi kapcsolatok további destabilizálására.
Történelem és emberi erőforrás technológia szakon szerzett diplomát. Szenvedélye az írás, ma azt az álmát éli meg, hogy professzionálisan webtartalom-íróként dolgozzon, és cikkeket írjon többféle fülkében és formátumban.