Лидери ОпенАИ, организација одговорна за развој ЦхатГПТ-а, позивају на регулацију "суперинтелигентних" интелигенција.
Они се залажу за стварање регулаторног тела сличног Међународној агенцији за енергију Атомска енергија да заштити човечанство од ризика стварања интелигенције способне за поништавање.
види више
Гоогле развија АИ алат за помоћ новинарима у…
Неотворени оригинални иПхоне из 2007. продаје се за скоро 200.000 долара; знам...
У кратком саопштењу објављеном на веб страници компаније, суоснивачи Грег Брокман и Иља Сутскевер, заједно са извршним директором Семом Алтманом, позив на стварање међународног регулаторног тела које би започело рад на аутентификацији обавештајних система вештачки.
Предлог има за циљ спровођење ревизија, тестова усклађености са безбедносним стандардима и спровођење ограничења у примени и нивоима безбедности. Ове мере имају за циљ смањење егзистенцијалног ризика повезаног са овим системима, настојећи да заштите човечанство од потенцијалних опасности.
Већ неколико деценија, истраживачи су наглашавали ризике потенцијално повезане са суперинтелигенцијом, где смо заправо видели еволуцију. Међутим, како развој вештачке интелигенције брзо напредује, ови ризици постају све конкретнији.
О Центар за безбедност вештачке интелигенције (ЦАИС), са седиштем у САД, посвећен је ублажавању друштвених ризика повезаних са вештачком интелигенцијом и идентификовао је осам категорија ризика које се сматрају „катастрофалним“ и „егзистенцијалним“ у вези са развојем АИ, пример. Постоје озбиљни ризици и ми смо им изложени.
Могуће је замислити да ће у наредних 10 година АИ системи достићи ниво специјализованих вештина у неколико домена и постаните продуктивни као неке од највећих компанија данас, као стручњаци ОпенАИ.
Ова брза еволуција АИ има потенцијал да значајно трансформише многе индустрије уз одржавање ефикасности и аутоматизације у многим продуктивним активностима.
У погледу потенцијалних предности и заштите, суперинтелигенција се сматра напреднијом технологијом. моћнији од оних са којима се човечанство суочавало у прошлости, наводи се у поруци лидера.
Постоје изгледи за знатно просперитетнију будућност, али је неопходно пажљиво управљати ризицима који су укључени у постизање овог сценарија. Суочени са могућношћу егзистенцијалних ризика, како су навели у белешци, кључно је заузети проактиван став, а не само реаговати на ситуације када се појаве.
У непосредном контексту, група наглашава потребу за „неким нивоом координације“ између компанија укључених у напредна истраживања. у АИ, како би се осигурала несметана интеграција све моћнијих модела у друштву, са посебним приоритетом на безбедност.
Таква координација се може успоставити кроз иницијативе или колективне уговоре који настоје да ограниче унапређење способности вештачке интелигенције. Ови приступи би били кључни за обезбеђивање да је развој вештачке интелигенције дозвољен на контролисан и одговоран начин, с обзиром на ризике који су укључени.
Заљубљеник у филмове и серије и све што укључује биоскоп. Активни радозналац на мрежама, увек повезан са информацијама о вебу.