А ОпенАИ, материнская компания ChatGPT, переживает дни административной нестабильности из-за приходов и уходов ее создателя Сэма Альтмана.
Как будто этого было недостаточно, появилась информация о том, что незадолго до увольнение Альтмана, который впоследствии был восстановлен в должности, совет директоров компании получил отчет тревожно.
узнать больше
Nestlé объявляет о диверсификации линии Chamyto Box на северо-востоке
Вскоре Vivo предложит подключение 5G через фиксированный Интернет; узнать больше!
В документе исследователи отмечают, что программа искусственного интеллекта под названием Q*, или Q-Star, которая разрабатывается развивавшиеся параллельно, могут представлять серьезную угрозу стабильности человечества в будущее.
По данным информационного агентства Reuters, опубликовавшего эту информацию, Q* использует обширные вычислительные мощности, чтобы отвечать на математические вопросы фундаментального уровня.
На первый взгляд, исследователи, разрабатывающие эту технологию, были воодушевлены тот факт, что она может ответить на вопросы за относительно короткое время и полностью автономный.
Однако опасность, которую представляет этот новый искусственный интеллект, заключается не в этой базовой концепции. Ведь даже простые калькуляторы могут выполнять менее сложные математические операции.
Что действительно встревожило экспертов, так это то, как Q-Star отвечает на их вопросы. Вместо использования статических шаблонов вычислений, таких как двоичные коды обычных калькуляторов, ИИ использует уникальные шаблоны в каждом ответе, который он дает.
Другими словами, Q* может дать несколько разных ответов на каждый поставленный перед ним вопрос, что оставляет место для «изобретений» и даже предоставления вводящих в заблуждение данных.
(Изображение: Freepik/репродукция)
Несмотря на нынешнюю фанфару, такое поведение, наблюдаемое в Q-Star, не является чем-то новым в мире искусственного интеллекта.
Другие интеллектуальные чат-боты, в том числе ваши собственные ЧатGPT, уже были «пойманы с поличным» на неудачах, возникших из-за их собственного метода обучения.
Вообще говоря, ИИ обучены работать так же, как человеческий мозг. Другими словами, им необходимо проанализировать предоставленную им информацию, чтобы попытаться выявить закономерности и поработать над ними. Именно эта логика позволяет нам, людям, учиться и передавать знания.
Однако делегирование такой «разумной» власти машинам может создать опасный прецедент для своего рода «бунта» против человечества.
Это потому, что ничто не мешает искусственному интеллекту сделать вывод на основе анализа закономерностей. любое, что человечество представляет собой угрозу, или что определенного человека необходимо устранить, ибо пример.
Хуже того, ИИ могут использоваться преступниками для совершения преступлений, вмешательства в политические и коммерческие решения, запятнания имиджа людей и т. д.
Чтобы «запачкать» имидж определенного человека, просто предоставьте ИИ негативную информацию об этом человеке. С другой стороны, чат-ботам, таким как ChatGPT, можно поручить каким-то образом влиять на людей, чтобы они придерживались того или иного политического аспекта.
По мере того, как искусственный интеллект развивается и распространяется во всех секторах общества, в центре обсуждения должны быть вопросы его этического и мирного использования.
Цель ИИ должна состоять в том, чтобы вывести человечество на новый уровень, а не в том, чтобы помогать преступникам или служить оружием для дальнейшей дестабилизации человеческих отношений.
Окончила факультет истории и технологии управления персоналом. Увлеченный писательством, сегодня он живет мечтой профессионально работать автором веб-контента, пишу статьи в различных нишах и форматах.