Ledarna för OpenAI, organisationen som ansvarar för utvecklingen av ChatGPT, kräver reglering av "superintelligenta" intelligenser.
De förespråkar skapandet av ett tillsynsorgan som liknar International Energy Agency Atomenergi för att skydda mänskligheten mot riskerna med att skapa en intelligens som kan fördärv.
se mer
Google utvecklar AI-verktyg för att hjälpa journalister i...
Oöppnad original 2007 iPhone säljs för nästan $200 000; känna till...
I ett kort uttalande publicerat på företagets hemsida, medgrundarna Greg Brockman och Ilya Sutskever, tillsammans med vd Sam Altman, uppmanar till skapandet av ett internationellt tillsynsorgan för att initiera arbetet med att autentisera underrättelsesystem artificiell.
Förslaget syftar till att genomföra revisioner, efterlevnadstester med säkerhetsstandarder och implementering av restriktioner i utbyggnaden och säkerhetsnivåerna. Dessa åtgärder syftar till att minska den existentiella risken förknippad med dessa system, och försöker skydda mänskligheten från potentiella faror.
Under flera decennier har forskare lyft fram de risker som potentiellt är förknippade med superintelligens, där vi faktiskt har sett en utveckling. Men i takt med att AI-utvecklingen går snabbt framåt blir dessa risker mer och mer konkreta.
O Centrum för AI-säkerhet (CAIS), baserat i USA, är dedikerat till att mildra de samhälleliga riskerna förknippade med artificiell intelligens och har identifierat åtta kategorier av risker som anses "katastrofala" och "existentiella" relaterade till utvecklingen av AI, av exempel. Det finns allvarliga risker och vi är utsatta för dem.
Det är möjligt att föreställa sig att AI-system under de kommande 10 åren kommer att nå en nivå av specialiserad kompetens inom flera domäner och bli lika produktiva som några av de största företagen där ute idag, som experter på OpenAI.
Denna snabba utveckling av AI har potential att avsevärt förändra många branscher samtidigt som effektivitet och automatisering bibehålls i många produktiva aktiviteter.
När det gäller potentiella fördelar och skydd anses superintelligens vara en mer avancerad teknik. kraftfulla än de mänskligheten har hanterat tidigare, sade ledarnas budskap.
Det finns utsikter till en betydligt mer välmående framtid, men det är viktigt att noggrant hantera riskerna för att uppnå detta scenario. Inför möjligheten av existentiella risker, som de rapporterade i en not, är det avgörande att inta en proaktiv hållning, snarare än att bara reagera på situationer när de uppstår.
I det omedelbara sammanhanget framhåller gruppen behovet av "någon nivå av samordning" mellan företag som arbetar med avancerad forskning. inom AI, för att säkerställa en smidig integration av allt kraftfullare modeller i samhället, med särskild prioritet på säkerhet.
Sådan samordning skulle kunna etableras genom initiativ eller kollektivavtal som syftar till att begränsa utvecklingen av AI-kapacitet. Dessa tillvägagångssätt skulle vara nyckeln till att säkerställa AI-utveckling tillåts på ett kontrollerat och ansvarsfullt sätt, med tanke på riskerna.
Älskar av filmer och serier och allt som rör film. En aktiv nyfiken på nätverken, alltid kopplad till information om webben.