Лидерите на OpenAI, организацията, отговорна за развитието на ChatGPT, призовават за регулиране на „суперинтелигентните“ интелекти.
Те се застъпват за създаването на регулаторен орган, подобен на Международната енергийна агенция Атомна енергия за защита на човечеството срещу рисковете от създаване на интелект, способен на отмяна.
виж повече
Google разработва AI инструмент, за да помогне на журналистите в...
Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...
В кратко изявление, публикувано на уебсайта на компанията, съоснователите Грег Брокман и Иля Съткевер, заедно с главния изпълнителен директор Сам Алтман, призовават за създаването на международен регулаторен орган, който да започне работата по удостоверяване на разузнавателните системи изкуствени.
Предложението има за цел извършване на одити, тестове за съответствие със стандартите за сигурност и прилагане на ограничения в нивата на разполагане и сигурност. Тези мерки имат за цел да намалят екзистенциалния риск, свързан с тези системи, като целят да защитят човечеството от потенциални опасности.
В продължение на няколко десетилетия изследователите подчертават рисковете, потенциално свързани със суперинтелигентността, където всъщност сме свидетели на еволюция. Въпреки това, тъй като развитието на ИИ бързо напредва, тези рискове стават все по-конкретни.
О Център за AI безопасност (CAIS), базирана в САЩ, е посветена на смекчаването на обществените рискове, свързани с изкуствения интелект, и идентифицира осем категории риск, считани за „катастрофални“ и „екзистенциални“, свързани с развитието на ИИ, от пример. Има сериозни рискове и ние сме изложени на тях.
Възможно е да си представим, че през следващите 10 години AI системите ще достигнат ниво на специализирани умения в няколко области и станете продуктивни като някои от най-големите корпорации днес, като експерти в OpenAI.
Тази бърза еволюция на AI има потенциала значително да трансформира много индустрии, като същевременно поддържа ефективност и автоматизация в много продуктивни дейности.
По отношение на потенциалните предимства и защита, суперинтелигентността се счита за по-напреднала технология. по-силни от тези, с които човечеството се е сблъсквало в миналото, се казва в посланието на лидерите.
Има перспектива за значително по-проспериращо бъдеще, но е важно внимателно да се управляват рисковете, свързани с постигането на този сценарий. Изправени пред възможността за екзистенциални рискове, както те информират в бележка, е от решаващо значение да се заеме проактивна позиция, вместо просто да се реагира на ситуации, когато възникнат.
В непосредствения контекст групата подчертава необходимостта от „известно ниво на координация“ между компаниите, участващи в напреднали изследвания. в AI, за да се осигури гладка интеграция на все по-мощни модели в обществото, със специален приоритет сигурност.
Такава координация може да бъде установена чрез инициативи или колективни споразумения, които се стремят да ограничат напредъка на способностите на ИИ. Тези подходи биха били от ключово значение за гарантиране, че развитието на ИИ е разрешено по контролиран и отговорен начин, като се вземат предвид свързаните рискове.
Любител на филми и сериали и всичко свързано с киното. Активен любопитен в мрежите, винаги свързан с информация за мрежата.