Някои известни учени, като самия Стивън Хокинг, вече са предсказали рисковете, които изкуственият интелект може да представлява за хората. Не само Хокинг, но и големи бизнесмени в технологичния сектор също изразиха загриженост относно напредъка на ИИ.
Като пример за това, Стив Возняк, съосновател на Apple, Илон Мъск и стотици други технологични магнати подписаха писмо, за да поискат предпазливост с напредъка в тази област.
виж повече
Google разработва AI инструмент, за да помогне на журналистите в...
Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...
Вижте също: Човек твърди, че е написал 100 книги с помощта на изкуствен интелект
Накратко, една от предпоставките, които алармистите изтъкват, е, че изкуственият интелект може да бъде развит до точката на придобиване на съзнание. Въпреки че и най-добрата философия не знае как точно да дефинира какво е такова съзнание, известно е, че на този етап една машина би разбрала коя е тя и каква е нейната роля в света.
В този момент изкуственият интелект би могъл да заеме лошо отношение към хората. Би било достатъчно да разбере, че хората са проблем за съществуването на планетата и за самото съществуване на машините, например.
Дан Хендрикс, директор на Центъра за безопасност на изкуствения интелект, предупреди, че има „множество пътища“ към „рискове в човешки мащаб от изкуствен интелект“. Това се казва в статия, публикувана от вестник Daily Star.
Експертът дори казва, че по-напредналите форми на изкуствен интелект „могат да бъдат използвани от злонамерени участници за проектиране на нови биологични оръжия, които са по-смъртоносни от естествените пандемии“.
Е, безспорно е, че това би бил много ефективен начин за унищожаване на човешките същества на Земята. Просто погледнете скорошната пандемия Covid-19. Тези заплахи дори съществуват в няколко лаборатории. себе си вирус на бяс, ако е претърпял една-единствена мутация, която го прави предаваем по въздуха, той ще завърши бързо и ефективно при хората.
В един все по-свързан и дигитализиран свят е напълно разумно да си представим, че изкуствен интелект може да поръча суровини за разработване на смъртоносно биологично оръжие.
Това е залогът, който правят някои специалисти, според цитирания вестник. Те вярват, че това би било начин да се запазят машините, тъй като те успяват да развият човешките емоции.
„Благодарение на технологичната революция в генното инженерство, всички инструменти, необходими за създаването на вирус, станаха толкова евтини, прости и лесно достъпни, така че всеки измамен учен или биохакер на колежанска възраст може да ги използва, създавайки още по-голяма заплаха“, каза Дан Хендрикс.
От друга страна, има анализатори, които не виждат рискове като споменатите по-горе. За тях е доста сложно да се анализира, че един изкуствен интелект е способен да се развива подобно на човешките умствени процеси.
Според това течение на мисълта не би било логичен начин да се мисли за най-добрите възможности. За целта разработчиците ще трябва да създадат алгоритъм, който имитира начина на мислене и чувства на хората, нещо, което в момента е изключено.
Освен това за тези хора изкуственият интелект би осъзнал, че за да се избегнат проблеми, най-доброто нещо, което трябва да направите, е просто да не съществувате. По този начин няма тенденция за оцеляване, както в животни, а да търси начин за решаване на проблемите.