Керівники с OpenAI, організація, відповідальна за розробку ChatGPT, закликає до регулювання «суперінтелектуальних» інтелектів.
Вони виступають за створення регулюючого органу на зразок Міжнародного енергетичного агентства Атомна енергія для захисту людства від ризиків створення інтелекту, здатного скасування.
побачити більше
Google розробляє інструмент ШІ, щоб допомогти журналістам у…
Нерозкритий оригінальний iPhone 2007 року продають майже за 200 000 доларів США; знаю...
У короткій заяві, розміщеній на веб-сайті компанії, співзасновники Грег Брокман та Ілля Суцкевер разом із генеральним директором Семом Альтманом, закликають до створення міжнародного регулюючого органу для початку роботи з аутентифікації розвідувальних систем штучні.
Пропозиція спрямована на проведення аудитів, тестів на відповідність стандартам безпеки та впровадження обмежень щодо рівнів розгортання та безпеки. Ці заходи спрямовані на зменшення ризику існування, пов’язаного з цими системами, прагнучи захистити людство від потенційних небезпек.
Протягом кількох десятиліть дослідники наголошували на ризиках, потенційно пов’язаних із суперінтелектом, де ми фактично спостерігали еволюцію. Однак у міру швидкого розвитку ШІ ці ризики стають дедалі більш конкретними.
О Центр безпеки ШІ (CAIS), розташована в США, займається пом’якшенням суспільних ризиків, пов’язаних зі штучним інтелектом, і визначила вісім категорій ризику, які вважаються «катастрофічними» та «екзистенціальними», пов’язаними з розробкою штучного інтелекту приклад. Є серйозні ризики, і ми наражаємося на них.
Можна уявити, що протягом наступних 10 років системи ШІ досягнуть рівня спеціалізованих навичок у кількох областях. і стати такими ж продуктивними, як деякі з найбільших сучасних корпорацій, як експерти в OpenAI.
Ця швидка еволюція штучного інтелекту має потенціал для суттєвої трансформації багатьох галузей, зберігаючи при цьому ефективність і автоматизацію в багатьох видах діяльності.
З точки зору потенційних переваг і захисту, суперінтелект вважається більш просунутою технологією. потужнішими, ніж ті, з якими людство мало справу в минулому, йдеться в посланні лідерів.
Існує перспектива значно більш процвітаючого майбутнього, але важливо ретельно керувати ризиками, пов’язаними з досягненням цього сценарію. Зіткнувшись із можливістю екзистенціальних ризиків, як вони повідомили в записці, вкрай важливо прийняти проактивну позицію, а не просто реагувати на ситуації, коли вони виникають.
У безпосередньому контексті група наголошує на необхідності «деякого рівня координації» між компаніями, які займаються передовими дослідженнями. в AI, щоб забезпечити плавну інтеграцію все більш потужних моделей у суспільство, з особливим пріоритетом безпеки.
Така координація може бути встановлена через ініціативи або колективні договори, спрямовані на обмеження розвитку можливостей ШІ. Ці підходи будуть ключовими для того, щоб розробка штучного інтелекту була дозволена контрольованим і відповідальним чином, враховуючи пов’язані з цим ризики.
Любитель фільмів і серіалів і всього, що пов'язано з кіно. Активний допитливий в мережах, завжди на зв'язку з інформацією про Інтернет.