Vadītāji no OpenAI, organizācija, kas ir atbildīga par ChatGPT izstrādi, aicina regulēt “superinteliģentu” intelektu.
Viņi atbalsta tādas regulatīvās iestādes izveidi, kas būtu līdzīga Starptautiskajai enerģētikas aģentūrai Atomenerģija, lai aizsargātu cilvēci pret risku radīt intelektu, kas spēj atsaukšana.
redzēt vairāk
Google izstrādā AI rīku, lai palīdzētu žurnālistiem…
Neatvērts oriģinālais 2007. gada iPhone tiek pārdots par gandrīz 200 000 USD; zini...
Īsā paziņojumā, kas publicēts uzņēmuma tīmekļa vietnē, līdzdibinātāji Gregs Brokmens un Iļja Sutskevers kopā ar izpilddirektoru Semu Altmanu, aicināt izveidot starptautisku regulatīvo iestādi, lai uzsāktu darbu pie izlūkošanas sistēmu autentifikācijas mākslīgs.
Priekšlikuma mērķis ir veikt auditus, pārbaudes par atbilstību drošības standartiem un ieviest ierobežojumus izvietošanas un drošības līmeņos. Šo pasākumu mērķis ir samazināt ar šīm sistēmām saistīto eksistenciālo risku, cenšoties aizsargāt cilvēci no iespējamām briesmām.
Jau vairākus gadu desmitus pētnieki ir uzsvēruši riskus, kas potenciāli saistīti ar superinteliģenci, kur mēs faktiski esam redzējuši attīstību. Tomēr, strauji attīstoties AI, šie riski kļūst arvien konkrētāki.
O AI drošības centrs (CAIS), kas atrodas ASV, ir paredzēts, lai mazinātu ar mākslīgo intelektu saistītos sociālos riskus, un ir identificējis astoņas riska kategorijas, ko uzskata par “katastrofāliem” un “eksistenciāliem”, kas saistītas ar mākslīgā intelekta attīstību piemērs. Pastāv nopietni riski, un mēs esam tiem pakļauti.
Var iedomāties, ka nākamajos 10 gados AI sistēmas sasniegs specializētu prasmju līmeni vairākās jomās un kļūt tikpat produktīvi kā daži no lielākajiem uzņēmumiem šodien, kā eksperti uzņēmumā OpenAI.
Šī straujā AI attīstība var būtiski pārveidot daudzas nozares, vienlaikus saglabājot efektivitāti un automatizāciju daudzās produktīvās darbībās.
Potenciālo priekšrocību un aizsardzības ziņā superinteliģence tiek uzskatīta par progresīvāku tehnoloģiju. spēcīgāki nekā tie, ar kuriem cilvēce ir tikusi galā pagātnē, teikts līderu vēstījumā.
Pastāv izredzes uz ievērojami pārtikušāku nākotni, taču ir svarīgi rūpīgi pārvaldīt riskus, kas saistīti ar šī scenārija sasniegšanu. Saskaroties ar eksistenciālu risku iespējamību, kā viņi ziņoja piezīmē, ir ļoti svarīgi pieņemt proaktīvu nostāju, nevis tikai reaģēt uz situācijām, kad tās rodas.
Tiešajā kontekstā grupa uzsver nepieciešamību pēc “zināma līmeņa koordinācijas” starp uzņēmumiem, kas iesaistīti progresīvā pētniecībā. AI, lai nodrošinātu arvien spēcīgāku modeļu vienmērīgu integrāciju sabiedrībā, īpašu prioritāti pievēršot drošību.
Šādu koordināciju varētu izveidot, izmantojot iniciatīvas vai koplīgumus, kuru mērķis ir ierobežot mākslīgā intelekta spēju attīstību. Šīs pieejas būtu ļoti svarīgas, lai nodrošinātu, ka mākslīgā intelekta attīstība tiek atļauta kontrolētā un atbildīgā veidā, ņemot vērā saistītos riskus.
Filmu un seriālu un visa, kas saistīts ar kino, mīļotājs. Aktīvs tīklos zinātkārs, vienmēr saistīts ar informāciju par tīmekli.