Una collaborazione tra Google e l'Università di Osaka sta trasformando il modo in cui comprendiamo il rapporto tra musica e mente.
Usare un "lettura della mente AI“, i ricercatori sono stati in grado di ricreare musica simile a quella che le persone stavano ascoltando quando i loro cervelli venivano scansionati.
Vedi altro
Contro il governo SP, la Svezia si arrende all'efficienza del libro...
Pulizia GENERALE: Google invia avvisi sulla chiusura degli account Gmail
Lo studio innovativo apre nuove prospettive su come la musica viene elaborata dal cervello umano. Questo potrebbe essere un passo importante verso la comprensione di quante attività vengono catturate dalle nostre funzioni cerebrali. Capisci meglio qui sotto!
La ricerca dimostra che l'Intelligenza Artificiale (AI) è in grado di generare musica basata su schemi cerebrali, aprendo la porta alla comprensione di come la musica influenzi la mente e le emozioni.
I risultati suggeriscono che l'attività cerebrale può essere tradotta in caratteristiche musicali come genere, ritmo, umore e strumentazione.
Finora, la ricostruzione dei suoni dall'attività cerebrale è stata esplorata principalmente in relazione a suoni semplici come il linguaggio umano e i versi degli animali.
Tuttavia, uno studio così pionieristico di Google e dell'Università di Osaka ha ampliato questi confini, approfondendo il complesso mondo di musica.
(Immagine: Shutterstock/Riproduzione)
Il processo di creazione musicale dell'IA, chiamato Brain2Music, utilizza immagini cerebrali ottenute mediante risonanza magnetica funzionale (fMRI).
A partire da questi dati, l'intelligenza artificiale crea connessioni tra schemi cerebrali ed elementi musicali come genere e umore.
Un tale approccio personalizzato consente alla tecnologia di produrre clip musicali che assomigliano a frammenti di musica ascoltati dai partecipanti durante la scansione.
Sebbene l'IA abbia ottenuto un notevole successo nel generare musica simile agli originali, i ricercatori sottolineano che il processo non è perfetto.
La concordanza tra la musica ricreata e la musica originale era di circa il 60%, indicando che il file AI cattura alcuni aspetti delle canzoni in modo più accurato rispetto ad altri.
Tuttavia, questa scoperta rivoluzionaria suggerisce un potenziale significativo per la ricerca e lo sviluppo futuri in questo campo. Lo studio ha anche rivelato specifiche regioni del cervello coinvolte nell'elaborazione della musica.
La corteccia uditiva primaria, dove vengono interpretati i suoni, viene attivata durante l'ascolto di musica, mentre la corteccia prefrontale laterale, associata ai significati e all'interpretazione, svolge un ruolo importante.
Inoltre, la ricerca solleva l'affascinante possibilità di ricostruire le canzoni che le persone stanno immaginando nella loro mente, andando oltre l'udito fisico.
Con questo, gli scienziati stanno svelando i misteri della profonda connessione tra la musica e la mente, aprendo le porte a una comprensione più completa di come la musica modella l'esperienza umana.
Lo studio potrebbe anche avere implicazioni pratiche per lo sviluppo di musicoterapie personalizzate e interazioni più intuitive tra uomo e tecnologia.