А OpenAI, материнська компанія ChatGPT, стикається з днями адміністративної нестабільності через прихід і відхід її творця, Сема Альтмана.
Наче цього було недостатньо, з’явилася інформація, що незадовго до звільнення Альтмана, який з тих пір був поновлений, рада директорів компанії отримала звіт тривожний.
побачити більше
Nestlé оголошує про диверсифікацію лінії Chamyto Box на північному сході
Незабаром Vivo запропонує підключення 5G через фіксований Інтернет; знати більше!
У документі дослідники зазначили, що програма ШІ під назвою Q* або Q-Star, яка зараз розвиваються паралельно, можуть становити серйозну небезпеку для стабільності людства в майбутнє.
За даними інформаційного агентства Reuters, яке оприлюднило цю інформацію, Q* використовує велику обчислювальну потужність, щоб в основному відповісти на математичні питання фундаментального рівня.
На перший погляд, дослідники, які розробляють технологію, були схвильовані той факт, що вона може відповісти на запитання за відносно короткий час і повністю автономний.
Однак небезпека, яку представляє цей новий штучний інтелект, не полягає в цій базовій концепції. Адже навіть прості калькулятори можуть виконувати менш складні математичні операції.
Експертів дуже стривожило те, як Q-Star відповідає на їхні запитання. Замість використання статичних шаблонів обчислень, як двійкові коди звичайних калькуляторів, ШІ використовує унікальні шаблони в кожній відповіді, яку він дає.
Іншими словами, Q* може дати кілька різних відповідей на кожне поставлене перед ним запитання, що залишає простір для «винаходів» і навіть надання оманливих даних.
(Зображення: Freepik/репродукція)
Незважаючи на нинішні фанфари, така поведінка, яка спостерігається в Q-Star, не нова у світі штучного інтелекту.
Інші інтелектуальні чат-боти, включно з вашим власним ChatGPT, вже були «спіймані на гарячому» у невдачах, пов’язаних із їхнім власним методом навчання.
Загалом, штучний інтелект навчений бути таким же, як людський мозок. Іншими словами, їм потрібно проаналізувати надану їм інформацію, щоб спробувати визначити закономірності та працювати над ними. Саме ця логіка дозволяє нам, людям, навчатися та передавати знання.
Однак делегування таких повноважень «міркування» машинам може створити небезпечний прецедент для своєрідного «повстання» проти людства.
Це пояснюється тим, що ніщо не заважає штучному інтелекту робити висновки через аналіз шаблонів будь-який, що людство є загрозою або що певну особу потрібно знищити, для приклад.
Гірше того, злочинці можуть використовувати ШІ для вчинення злочинів, втручання в політичні та комерційні рішення, заплямування іміджу людей тощо.
Щоб «забруднити» імідж певної людини, просто надайте AI негативну інформацію про цю людину. З іншого боку, чат-ботам на кшталт ChatGPT можна якимось чином надати вплив на людей, щоб вони дотримувалися того чи іншого політичного аспекту.
Оскільки штучний інтелект прогресує та поширюється в усіх секторах суспільства, занепокоєння щодо його етичного та мирного використання має бути в центрі обговорення.
Мета штучного інтелекту повинна полягати в тому, щоб підняти людство на наступний рівень, а не допомагати злочинцям чи служити зброєю для подальшої дестабілізації людських стосунків.
Закінчив історію та кадрову технологію. Захоплюючись письменницькою діяльністю, сьогодні він живе мрією професійно працювати автором веб-контенту, пишучи статті в кількох різних нішах і форматах.