Lederne af OpenAI, organisationen ansvarlig for udviklingen af ChatGPT, opfordrer til regulering af "superintelligente" intelligenser.
De går ind for oprettelsen af et tilsynsorgan svarende til Det Internationale Energiagentur Atomenergi til at beskytte menneskeheden mod risiciene ved at skabe en intelligens i stand til fortryder.
se mere
Google udvikler AI-værktøj til at hjælpe journalister i...
Uåbnet original 2007 iPhone sælges for næsten $200.000; ved godt...
I en kort erklæring offentliggjort på virksomhedens hjemmeside, medstifterne Greg Brockman og Ilya Sutskever sammen med CEO Sam Altman, opfordre til oprettelse af et internationalt tilsynsorgan til at påbegynde arbejdet med at autentificere efterretningssystemer kunstig.
Forslaget sigter mod at udføre audits, overensstemmelsestest med sikkerhedsstandarder og implementering af restriktioner i implementerings- og sikkerhedsniveauer. Disse foranstaltninger har til formål at reducere den eksistentielle risiko forbundet med disse systemer, og søger at beskytte menneskeheden mod potentielle farer.
I flere årtier har forskere fremhævet de risici, der potentielt er forbundet med superintelligens, hvor vi faktisk har set en udvikling. Men efterhånden som AI-udviklingen skrider hurtigt frem, bliver disse risici mere og mere konkrete.
O Center for AI-sikkerhed (CAIS), baseret i USA, er dedikeret til at mindske de samfundsmæssige risici forbundet med kunstig intelligens og har identificeret otte kategorier af risiko, der anses for "katastrofale" og "eksistentielle" relateret til udviklingen af kunstig intelligens, ved eksempel. Der er alvorlige risici, og vi er udsat for dem.
Det er muligt at forestille sig, at AI-systemer i løbet af de næste 10 år vil nå et niveau af specialiseret færdighed inden for flere domæner og blive lige så produktive som nogle af de største virksomheder derude i dag, som eksperter på OpenAI.
Denne hurtige udvikling af kunstig intelligens har potentialet til at ændre mange industrier markant, samtidig med at effektiviteten og automatiseringen bevares i mange produktive aktiviteter.
Med hensyn til potentielle fordele og beskyttelse betragtes superintelligens som en mere avanceret teknologi. magtfulde end dem, menneskeheden har beskæftiget sig med tidligere, sagde ledernes budskab.
Der er udsigt til en væsentligt mere fremgangsrig fremtid, men det er vigtigt omhyggeligt at håndtere de risici, der er forbundet med at opnå dette scenarie. Stillet over for muligheden for eksistentielle risici, som de rapporterede i et notat, er det afgørende at indtage en proaktiv holdning i stedet for blot at reagere på situationer, efterhånden som de opstår.
I den umiddelbare sammenhæng understreger gruppen behovet for "en vis grad af koordinering" mellem virksomheder involveret i avanceret forskning. i AI, for at sikre en smidig integration af stadig stærkere modeller i samfundet, med særlig prioritet på sikkerhed.
En sådan koordinering kunne etableres gennem initiativer eller kollektive aftaler, der søger at begrænse udviklingen af AI-kapacitet. Disse tilgange ville være nøglen til at sikre AI-udvikling er tilladt på en kontrolleret og ansvarlig måde, i betragtning af de involverede risici.
Elsker af film og serier og alt hvad der involverer biograf. En aktiv nysgerrig på netværkene, altid forbundet med information om nettet.