Деякі відомі вчені, як-от сам Стівен Хокінг, уже передбачили ризики, які штучний інтелект може становити для людей. Не тільки Хокінг, але й великі бізнесмени в технологічному секторі також висловили занепокоєння щодо розвитку ШІ.
Як приклад цього, Стів Возняк, співзасновник Apple, Ілон Маск і сотні інших технологічних магнатів підписали листа з проханням бути обережними з прогресом у цій сфері.
побачити більше
Google розробляє інструмент ШІ, щоб допомогти журналістам у…
Нерозкритий оригінальний iPhone 2007 року продають майже за 200 000 доларів США; знаю...
Дивіться також: Чоловік стверджує, що написав 100 книг за допомогою штучного інтелекту
Коротше кажучи, одна з передумов, на яку вказують панікисти, полягає в тому, що штучний інтелект можна розвинути до точки набуття свідомості. Хоча навіть найтонша філософія не знає, як точно визначити, що таке свідомість, відомо, що на цьому етапі машина зрозуміє, хто вона така і яка її роль у світі.
Саме в цей момент штучний інтелект міг би погано ставитися до людей. Їй було б достатньо зрозуміти, що люди є проблемою для існування планети і для самої сталості машин, наприклад.
Ден Хендрікс, директор Центру безпеки штучного інтелекту, попередив, що існує «кілька шляхів» до «людських ризиків від ШІ». Про це йдеться в статті, опублікованій газетою Daily Star.
Експерт навіть каже, що більш просунуті форми штучного інтелекту «можуть використовуватися зловмисниками для розробки нової біологічної зброї, яка є більш смертоносною, ніж природні пандемії».
Що ж, беззаперечно, що це був би дуже ефективний спосіб винищення людей на Землі. Тільки подивіться на недавню пандемію Covid-19. Ці загрози існують навіть у кількох лабораторіях. себе вірус сказу, якби воно зазнало єдиної мутації, що зробило б його по повітрю, воно швидко й ефективно потрапило б до людей.
У все більш зв’язаному та оцифрованому світі цілком розумно уявити, що штучний інтелект може замовити сировину для розробки смертоносної біологічної зброї.
Таку ставку роблять деякі спеціалісти, повідомляє цитована вище газета. Вони вважають, що це буде спосіб зберегти машини, оскільки їм вдається розвивати людські емоції.
«Завдяки технологічній революції в генній інженерії всі інструменти, необхідні для створення вірусу, стали такими дешевими, простими і легко доступні, що будь-який шахрай-вчений або біохакер коледжу може ними скористатися, створюючи ще більшу загрозу», – сказав Ден. Хендрікс.
З іншого боку, є аналітики, які не бачать ризиків, подібних до згаданих вище. Для них досить складно проаналізувати, що штучний інтелект здатний розвиватися подібно до розумових процесів людини.
Згідно з цією течією думок, думати про найкращі можливості було б нелогічно. Для цього розробники мали б створити алгоритм, який би імітував спосіб мислення та почуття людей, про що зараз не може бути й мови.
Крім того, для цих людей штучний інтелект зрозуміє, що, щоб уникнути проблем, найкраще було б просто не існувати. Таким чином, немає тенденції до виживання, як у тварини, а шукати шляхи вирішення проблем.