Некоторые известные ученые, такие как сам Стивен Хокинг, уже предсказали риски, которые искусственный интеллект может представлять для человека. Не только Хокинг, но и крупные бизнесмены в технологическом секторе также выразили обеспокоенность развитием ИИ.
В качестве примера можно привести Стива Возняка, соучредителя Apple, Илона Маска и сотен других технологических магнатов, подписавших письмо с просьбой проявлять осторожность в отношении достижений в этой области.
узнать больше
Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…
Неоткрытый оригинальный iPhone 2007 года продается почти за 200 000 долларов; знать...
Смотрите также: Мужчина утверждает, что написал 100 книг с помощью искусственного интеллекта
Короче говоря, одна из предпосылок, на которую указывают алармисты, заключается в том, что искусственный интеллект можно развить до уровня сознания. Хотя даже самая тонкая философия не знает, как точно определить, что такое такое сознание, известно, что на этом этапе машина поймет, кто она и какова ее роль в мире.
Именно в этот момент искусственный интеллект может плохо относиться к людям. Ей достаточно было бы понять, что люди — проблема для существования планеты и для самого постоянства машин, например.
Дэн Хендрикс, директор Центра безопасности ИИ, предупредил, что существует «множество путей» к «человеческим рискам, связанным с ИИ». Об этом говорится в статье, опубликованной газетой Daily Star.
Эксперт даже говорит, что более совершенные формы искусственного интеллекта «могут быть использованы злоумышленниками для разработки нового биологического оружия, более смертоносного, чем естественные пандемии».
Что ж, нельзя отрицать, что это был бы очень эффективный способ истребления людей на Земле. Достаточно взглянуть на недавнюю пандемию Covid-19. Эти угрозы существуют даже в нескольких лабораториях. Сам вирус бешенства, если бы он подвергся хотя бы одной мутации, делающей его передающимся воздушно-капельным путем, он бы быстро и эффективно передался людям.
Во все более связанном и оцифрованном мире вполне разумно представить, что искусственный интеллект может заказывать сырье для разработки смертоносного биологического оружия.
Такую ставку делают некоторые специалисты, пишет цитируемая выше газета. Они считают, что это способ сохранить машины, поскольку им удается развивать человеческие эмоции.
«Благодаря технологической революции в генной инженерии все инструменты, необходимые для создания вируса, стали такими дешевыми, простыми и легко доступны, что любой ученый-мошенник или биохакер студенческого возраста может использовать их, создавая еще большую угрозу», — сказал Дэн. Хендрикс.
С другой стороны, есть аналитики, которые не видят рисков, подобных упомянутым выше. Для них достаточно сложно проанализировать, что искусственный интеллект способен эволюционировать подобно человеческим психическим процессам.
Согласно этому течению мысли, было бы нелогично думать о наилучших возможностях. Для этого разработчикам придется создать алгоритм, имитирующий образ мыслей и чувств людей, о чем в настоящее время не может быть и речи.
Более того, для этих людей искусственный интеллект должен был бы понять, что, чтобы избежать проблем, лучше всего просто не существовать. Таким образом, нет тенденции к выживанию, как в животные, а искать пути решения проблем.