Vadovai iš OpenAI, organizacija, atsakinga už ChatGPT kūrimą, ragina reguliuoti „superintelektus“ intelektus.
Jie pasisako už reguliavimo institucijos, panašios į Tarptautinę energetikos agentūrą, sukūrimą Atominė energija, skirta apsaugoti žmoniją nuo rizikos sukurti intelektą, galintį atšaukimas.
Žiūrėti daugiau
„Google“ kuria AI įrankį, padedantį žurnalistams…
Neatidarytas originalus 2007 m. iPhone parduodamas už beveik 200 000 USD; žinoti...
Bendrovės tinklalapyje paskelbtame trumpame pareiškime įkūrėjai Gregas Brockmanas ir Ilja Sutskeveris kartu su generaliniu direktoriumi Samu Altmanu, raginti sukurti tarptautinę reguliavimo instituciją, kuri inicijuotų žvalgybos sistemų autentifikavimo darbą dirbtinis.
Pasiūlymu siekiama atlikti auditą, atitikties saugumo standartams bandymus ir įgyvendinti diegimo bei saugumo lygių apribojimus. Šiomis priemonėmis siekiama sumažinti su šiomis sistemomis susijusią egzistencinę riziką, siekiant apsaugoti žmoniją nuo galimų pavojų.
Keletą dešimtmečių mokslininkai akcentavo riziką, galinčią susieti su superintelektu, kur mes iš tikrųjų matėme evoliuciją. Tačiau sparčiai tobulėjant AI, šios rizikos tampa vis konkretesnės.
O AI saugos centras (CAIS), įsikūrusi JAV, yra skirta su dirbtiniu intelektu susijusiai visuomeninei rizikai mažinti ir nustatė aštuonios rizikos kategorijos, laikomos „katastrofinėmis“ ir „egzistencinėmis“, susijusiomis su AI vystymusi pavyzdys. Yra rimtų pavojų, ir mes esame jų veikiami.
Galima įsivaizduoti, kad per ateinančius 10 metų dirbtinio intelekto sistemos pasieks specializuotų įgūdžių lygį keliose srityse ir tapti tokia pat produktyvia kaip kai kurios didžiausios šiandienos įmonės, kaip ekspertai OpenAI.
Ši sparti AI raida gali žymiai pakeisti daugelį pramonės šakų, kartu išlaikant daugelio produktyvių veiklų efektyvumą ir automatizavimą.
Kalbant apie galimus pranašumus ir apsaugą, superintelektas laikomas pažangesne technologija. galingesni nei tie, su kuriais žmonija susidūrė praeityje, sakoma lyderių pranešime.
Yra daug klestinčios ateities perspektyva, tačiau būtina atidžiai valdyti riziką, susijusią su šio scenarijaus įgyvendinimu. Susidūrę su egzistencinių pavojų galimybe, kaip jie pranešė pastaboje, labai svarbu laikytis iniciatyvios pozicijos, o ne tik reaguoti į susidariusias situacijas.
Neatidėliotiname kontekste grupė pabrėžia, kad reikia „tam tikro lygio koordinavimo“ tarp įmonių, dalyvaujančių pažangiuose tyrimuose. dirbtinio intelekto srityje, siekiant užtikrinti sklandžią vis galingesnių modelių integraciją į visuomenę, ypatingą dėmesį skiriant saugumo.
Toks koordinavimas galėtų būti nustatytas įgyvendinant iniciatyvas arba kolektyvines sutartis, kuriomis siekiama apriboti dirbtinio intelekto pajėgumų tobulinimą. Šie metodai būtų labai svarbūs užtikrinant, kad dirbtinio intelekto plėtra būtų leidžiama kontroliuojamai ir atsakingai, atsižvelgiant į susijusią riziką.
Filmų, serialų ir visko, kas susiję su kinu, mėgėjas. Aktyvus smalsus tinkluose, visada prisijungęs prie informacijos apie internetą.