Przywódcy OpenAI, organizacja odpowiedzialna za rozwój ChatGPT, wzywa do uregulowania kwestii „superinteligentnych” inteligencji.
Opowiadają się za utworzeniem organu regulacyjnego podobnego do Międzynarodowej Agencji Energii Energii Atomowej, aby chronić ludzkość przed ryzykiem stworzenia inteligencji zdolnej do zguba.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
W krótkim oświadczeniu opublikowanym na stronie internetowej firmy, współzałożyciele Greg Brockman i Ilya Sutskever wraz z dyrektorem generalnym Samem Altmanem, wezwanie do utworzenia międzynarodowego organu regulacyjnego, który zainicjowałby prace nad uwierzytelnianiem systemów wywiadowczych sztuczny.
Wniosek ma na celu przeprowadzenie audytów, testów zgodności z normami bezpieczeństwa oraz wprowadzenie ograniczeń we wdrażaniu i poziomach bezpieczeństwa. Środki te mają na celu zmniejszenie ryzyka egzystencjalnego związanego z tymi systemami, mając na celu ochronę ludzkości przed potencjalnymi zagrożeniami.
Od kilku dziesięcioleci badacze zwracają uwagę na zagrożenia potencjalnie związane z superinteligencją, w której faktycznie obserwujemy ewolucję. Jednak wraz z szybkim postępem rozwoju sztucznej inteligencji zagrożenia te stają się coraz bardziej konkretne.
O Centrum Bezpieczeństwa AI (CAIS) z siedzibą w USA zajmuje się łagodzeniem zagrożeń społecznych związanych ze sztuczną inteligencją i zidentyfikowała je osiem kategorii ryzyka uznawanych za „katastrofalne” i „egzystencjalne” związane z rozwojem AI, wg przykład. Istnieją poważne zagrożenia i jesteśmy na nie narażeni.
Można sobie wyobrazić, że w ciągu najbliższych 10 lat systemy sztucznej inteligencji osiągną poziom wyspecjalizowanych umiejętności w kilku dziedzinach i stań się tak produktywny, jak niektóre z największych dzisiejszych korporacji, jako eksperci ds OpenAI.
Ta szybka ewolucja sztucznej inteligencji może znacząco zmienić wiele branż, zachowując jednocześnie wydajność i automatyzację wielu działań produkcyjnych.
Pod względem potencjalnych zalet i ochrony superinteligencja jest uważana za bardziej zaawansowaną technologię. potężniejsze niż te, z którymi ludzkość miała do czynienia w przeszłości, głosi przesłanie przywódców.
Istnieje perspektywa znacznie pomyślniejszej przyszłości, ale konieczne jest ostrożne zarządzanie ryzykiem związanym z realizacją tego scenariusza. W obliczu możliwości zagrożeń egzystencjalnych, jak zgłosili w nocie, kluczowe jest przyjęcie proaktywnej postawy, a nie tylko reagowanie na pojawiające się sytuacje.
W bezpośrednim kontekście grupa podkreśla potrzebę „pewnego poziomu koordynacji” między firmami zaangażowanymi w zaawansowane badania. w AI, aby zapewnić płynną integrację coraz potężniejszych modeli w społeczeństwie, ze szczególnym priorytetem na bezpieczeństwo.
Taka koordynacja mogłaby zostać ustanowiona poprzez inicjatywy lub układy zbiorowe, które mają na celu ograniczenie rozwoju zdolności sztucznej inteligencji. Podejścia te miałyby kluczowe znaczenie dla umożliwienia rozwoju sztucznej inteligencji w sposób kontrolowany i odpowiedzialny, biorąc pod uwagę związane z tym ryzyko.
Miłośnik filmów i seriali oraz wszystkiego co związane z kinem. Aktywny ciekawski w sieci, zawsze podłączony do informacji o sieci.