UN OpenAI, la società madre di ChatGPT, sta affrontando giorni di instabilità amministrativa con l'andirivieni del suo creatore, Sam Altman.
Come se ciò non bastasse, l'informazione è venuta alla luce poco prima del Dopo il licenziamento di Altman, che nel frattempo è stato reintegrato, il consiglio di amministrazione della società ha ricevuto una relazione allarmante.
Vedi altro
Nestlé annuncia la diversificazione della linea Chamyto Box nel Nordest
Presto Vivo offrirà la connessione 5G tramite Internet fissa; saperne di più!
Nel documento, i ricercatori hanno sottolineato che un programma di intelligenza artificiale chiamato Q*, o Q-Star, è in fase di sviluppo sviluppato in parallelo, potrebbe rappresentare un grave rischio per la stabilità dell’umanità nel futuro.
Secondo l’agenzia di stampa Reuters, che ha rilasciato queste informazioni, Q* utilizza un’ampia potenza di calcolo per rispondere sostanzialmente a domande matematiche di livello fondamentale.
A prima vista, i ricercatori che hanno sviluppato la tecnologia sono rimasti entusiasti fatto che può rispondere alle domande in un tempo relativamente breve e in modo completo autonomo.
Tuttavia, il pericolo rappresentato da questa nuova Intelligenza Artificiale non risiede in questa concettualizzazione di base. Dopotutto, anche i semplici calcolatori possono eseguire operazioni matematiche meno complicate.
Ciò che veramente allarma gli esperti è il modo in cui Q-Star risponde alle loro domande. Invece di utilizzare modelli di calcolo statici, come i codici binari delle calcolatrici convenzionali, l’intelligenza artificiale utilizza modelli unici in ogni risposta fornita.
In altre parole, Q* può dare diverse risposte a ogni domanda che gli viene posta, il che lascia spazio a “invenzioni” e persino alla fornitura di dati fuorvianti.
(Immagine: Freepik/riproduzione)
Nonostante l’attuale clamore, questo comportamento osservato a Q-Star non è nuovo nel mondo dell’intelligenza artificiale.
Altri chatbot intelligenti, incluso il tuo ChatGPT, sono già stati “colti in flagrante” in fallimenti derivanti dal loro stesso metodo di allenamento.
In generale, le IA sono addestrate per essere esattamente come un cervello umano. In altre parole, devono analizzare le informazioni fornite loro per cercare di identificare modelli e lavorare su di essi. È questa logica che permette a noi esseri umani di apprendere e trasmettere la conoscenza.
Tuttavia, delegare tale potere di “ragionamento” alle macchine potrebbe costituire un pericoloso precedente per una sorta di “ribellione” contro l’umanità.
Questo perché nulla impedisce ad un’Intelligenza Artificiale di concludere, attraverso un’analisi dei pattern qualsiasi, che l'umanità è una minaccia, o che una certa persona deve essere eliminata, perché esempio.
Quel che è peggio è che l’intelligenza artificiale può essere utilizzata dai criminali per commettere crimini, interferire nelle decisioni politiche e commerciali, offuscare l’immagine delle persone, ecc.
Per “sporcare” l’immagine di una determinata persona è sufficiente fornire all’IA informazioni negative su quell’individuo. D’altro canto, i chatbot come ChatGPT possono essere incaricati in qualche modo di influenzare le persone ad aderire a questo o quell’aspetto politico.
Man mano che l’intelligenza artificiale avanza e si diffonde in tutti i settori della società, le preoccupazioni relative al suo utilizzo etico e pacifico devono essere al centro della discussione.
L’obiettivo dell’intelligenza artificiale dovrebbe essere quello di spingere l’umanità al livello successivo, non di aiutare i criminali o fungere da arma per destabilizzare ulteriormente le relazioni umane.
Laureata in Storia e Tecnologia delle Risorse Umane. Appassionato di scrittura, oggi vive il sogno di lavorare professionalmente come Web Content Writer, scrivendo articoli in diverse nicchie e formati diversi.