Education for all people
Blisko
Menu

Nawigacja

  • 1 Rok
  • 5 Rok
  • Literatury
  • Język Portugalski
  • Polish
    • Russian
    • English
    • Arabic
    • Bulgarian
    • Croatian
    • Czech
    • Danish
    • Dutch
    • Estonian
    • Finnish
    • French
    • Georgian
    • German
    • Greek
    • Hebrew
    • Hindi
    • Hungarian
    • Indonesian
    • Italian
    • Japanese
    • Korean
    • Latvian
    • Lithuanian
    • Norwegian
    • Polish
    • Romanian
    • Serbian
    • Slovak
    • Slovenian
    • Spanish
    • Swedish
    • Thai
    • Turkish
    • Ukrainian
    • Persian
Blisko

OpenAI opowiada się za regulacjami dotyczącymi sztucznej inteligencji, aby zapewnić bezpieczeństwo ludzi

Przywódcy OpenAI, organizacja odpowiedzialna za rozwój ChatGPT, wzywa do uregulowania kwestii „superinteligentnych” inteligencji.

Opowiadają się za utworzeniem organu regulacyjnego podobnego do Międzynarodowej Agencji Energii Energii Atomowej, aby chronić ludzkość przed ryzykiem stworzenia inteligencji zdolnej do zguba.

Zobacz więcej

Google opracowuje narzędzie AI, które pomoże dziennikarzom w…

Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...

W krótkim oświadczeniu opublikowanym na stronie internetowej firmy, współzałożyciele Greg Brockman i Ilya Sutskever wraz z dyrektorem generalnym Samem Altmanem, wezwanie do utworzenia międzynarodowego organu regulacyjnego, który zainicjowałby prace nad uwierzytelnianiem systemów wywiadowczych sztuczny.

Wniosek ma na celu przeprowadzenie audytów, testów zgodności z normami bezpieczeństwa oraz wprowadzenie ograniczeń we wdrażaniu i poziomach bezpieczeństwa. Środki te mają na celu zmniejszenie ryzyka egzystencjalnego związanego z tymi systemami, mając na celu ochronę ludzkości przed potencjalnymi zagrożeniami.

Od kilku dziesięcioleci badacze zwracają uwagę na zagrożenia potencjalnie związane z superinteligencją, w której faktycznie obserwujemy ewolucję. Jednak wraz z szybkim postępem rozwoju sztucznej inteligencji zagrożenia te stają się coraz bardziej konkretne.

O Centrum Bezpieczeństwa AI (CAIS) z siedzibą w USA zajmuje się łagodzeniem zagrożeń społecznych związanych ze sztuczną inteligencją i zidentyfikowała je osiem kategorii ryzyka uznawanych za „katastrofalne” i „egzystencjalne” związane z rozwojem AI, wg przykład. Istnieją poważne zagrożenia i jesteśmy na nie narażeni.

Liderzy OpenAI wzywają do regulacji AI

Można sobie wyobrazić, że w ciągu najbliższych 10 lat systemy sztucznej inteligencji osiągną poziom wyspecjalizowanych umiejętności w kilku dziedzinach i stań się tak produktywny, jak niektóre z największych dzisiejszych korporacji, jako eksperci ds OpenAI.

Ta szybka ewolucja sztucznej inteligencji może znacząco zmienić wiele branż, zachowując jednocześnie wydajność i automatyzację wielu działań produkcyjnych.

Pod względem potencjalnych zalet i ochrony superinteligencja jest uważana za bardziej zaawansowaną technologię. potężniejsze niż te, z którymi ludzkość miała do czynienia w przeszłości, głosi przesłanie przywódców.

Istnieje perspektywa znacznie pomyślniejszej przyszłości, ale konieczne jest ostrożne zarządzanie ryzykiem związanym z realizacją tego scenariusza. W obliczu możliwości zagrożeń egzystencjalnych, jak zgłosili w nocie, kluczowe jest przyjęcie proaktywnej postawy, a nie tylko reagowanie na pojawiające się sytuacje.

W bezpośrednim kontekście grupa podkreśla potrzebę „pewnego poziomu koordynacji” między firmami zaangażowanymi w zaawansowane badania. w AI, aby zapewnić płynną integrację coraz potężniejszych modeli w społeczeństwie, ze szczególnym priorytetem na bezpieczeństwo.

Taka koordynacja mogłaby zostać ustanowiona poprzez inicjatywy lub układy zbiorowe, które mają na celu ograniczenie rozwoju zdolności sztucznej inteligencji. Podejścia te miałyby kluczowe znaczenie dla umożliwienia rozwoju sztucznej inteligencji w sposób kontrolowany i odpowiedzialny, biorąc pod uwagę związane z tym ryzyko.

Miłośnik filmów i seriali oraz wszystkiego co związane z kinem. Aktywny ciekawski w sieci, zawsze podłączony do informacji o sieci.

Ruszył termin usprawiedliwienia nieobecności w Encceja 2022
Ruszył termin usprawiedliwienia nieobecności w Encceja 2022
on Aug 01, 2023
Revalida 2023: karta pierwszego etapu wydana przez firmę Inep
Revalida 2023: karta pierwszego etapu wydana przez firmę Inep
on Aug 01, 2023
Czy jest ktoś z IQ poniżej 50?
Czy jest ktoś z IQ poniżej 50?
on Aug 01, 2023
1 Rok5 RokLiteraturyJęzyk PortugalskiMapa Myśli FungiMapa Myśli BiałkaMatematykaMatka IiMateriaŚrodowiskoRynek PracyMitologia6 LatFormyBoże NarodzenieAktualnościWróg WiadomościLiczbowySłowa Z CParlendasDzielenie Się AfrykąMyślicielePlany Lekcji6 RokPolitykaPortugalskiOstatnie Posty Poprzednie PostyWiosnaPierwsza Wojna światowaGłówny
  • 1 Rok
  • 5 Rok
  • Literatury
  • Język Portugalski
  • Mapa Myśli Fungi
  • Mapa Myśli Białka
  • Matematyka
  • Matka Ii
  • Materia
  • Środowisko
  • Rynek Pracy
  • Mitologia
  • 6 Lat
  • Formy
  • Boże Narodzenie
  • Aktualności
  • Wróg Wiadomości
  • Liczbowy
Privacy
© Copyright Education for all people 2025