Et samarbeid mellom Google og Osaka University transformerer måten vi forstår forholdet mellom musikk og sinnet på.
Bruker en "tankelesende AI", var forskere i stand til å gjenskape musikk som ligner på det folk lyttet til da hjernen deres ble skannet.
se mer
Mot SP-regjeringen overgir Sverige seg til bokens effektivitet...
GENERELL rengjøring: Google varsler om å stenge Gmail-kontoer
Den banebrytende studien åpner for nye perspektiver på hvordan musikk behandles av Menneskehjerne. Dette kan være et viktig skritt mot å forstå hvor mange aktiviteter som fanges opp av hjernefunksjonene våre. Forstå bedre nedenfor!
Forskning viser at kunstig intelligens (AI) er i stand til å generere musikk basert på hjernemønstre, og åpner døren for å forstå hvordan musikk påvirker sinnet og følelsene.
Resultatene tyder på at hjerneaktivitet kan oversettes til musikalske egenskaper som sjanger, rytme, humør og instrumentering.
Så langt har rekonstruering av lyder fra hjerneaktivitet for det meste blitt utforsket i forhold til enkle lyder som menneskelig tale og dyrelyder.
Imidlertid har en slik banebrytende studie fra Google og Osaka University utvidet disse grensene, og dykket ned i den komplekse verdenen av musikk.
(Bilde: Shutterstock/Reproduksjon)
AIs musikkskapingsprosess, kalt Brain2Music, bruker hjernebilder oppnådd ved funksjonell magnetisk resonansavbildning (fMRI).
Fra disse dataene lager AI forbindelser mellom hjernemønstre og musikalske elementer som sjanger og stemning.
En slik personlig tilnærming gjør det mulig for teknologien å produsere musikkklipp som ligner musikksnutter som ble hørt av deltakerne under skanningen.
Mens AI har oppnådd bemerkelsesverdig suksess med å generere musikk som ligner på originalene, påpeker forskerne at prosessen ikke er perfekt.
Overensstemmelsen mellom den gjenskapte musikken og den originale musikken var rundt 60 %, noe som indikerer at AI fanger opp visse aspekter av sanger mer nøyaktig enn andre.
Denne banebrytende oppdagelsen antyder imidlertid et betydelig potensial for fremtidig forskning og utvikling på dette feltet. Studien avslørte også spesifikke hjerneregioner involvert i musikkbehandling.
Den primære auditive cortex, hvor lyder tolkes, aktiveres når du lytter til musikk, mens den laterale prefrontale cortex, assosiert med betydninger og tolkning, spiller en rolle viktig.
Videre løfter forskningen frem den fascinerende muligheten for å rekonstruere sanger som folk forestiller seg i sinnet, som går utover fysisk hørsel.
Med dette låser forskerne opp mysteriene rundt den dype forbindelsen mellom musikk og sinnet, og åpner dører til en mer omfattende forståelse av hvordan musikk former den menneskelige opplevelsen.
Studien kan også ha praktiske implikasjoner for utvikling av personlig tilpassede musikkterapier og mer intuitive interaksjoner mellom mennesker og teknologi.