Et samarbejde mellem Google og Osaka University transformerer den måde, vi forstår forholdet mellem musik og sind på.
Ved hjælp af en "tankelæsende AI“, var forskere i stand til at genskabe musik, der ligner det, folk lyttede til, da deres hjerner blev scannet.
se mere
Mod SP-regeringen overgiver Sverige sig til bogens effektivitet...
GENEREL rengøring: Google giver besked om lukning af Gmail-konti
Den banebrydende undersøgelse åbner nye perspektiver på, hvordan musik bearbejdes af menneskelig hjerne. Dette kunne være et vigtigt skridt i retning af at forstå, hvor mange aktiviteter, der fanges af vores hjernefunktioner. Forstå bedre nedenfor!
Forskning viser, at kunstig intelligens (AI) er i stand til at generere musik baseret på hjernemønstre, hvilket åbner døren til at forstå, hvordan musik påvirker sindet og følelserne.
Resultaterne tyder på, at hjerneaktivitet kan omsættes til musikalske karakteristika som genre, rytme, humør og instrumentering.
Hidtil er rekonstruering af lyde fra hjerneaktivitet mest blevet udforsket i forhold til simple lyde som menneskelig tale og dyrelyde.
Imidlertid har en sådan banebrydende undersøgelse foretaget af Google og Osaka University udvidet disse grænser og dykket ned i den komplekse verden af musik.
(Billede: Shutterstock/Reproduktion)
AI's musikskabelsesproces, kaldet Brain2Music, bruger hjernebilleder opnået ved funktionel magnetisk resonansbilleddannelse (fMRI).
Ud fra disse data skaber AI forbindelser mellem hjernemønstre og musikalske elementer såsom genre og stemning.
En sådan personlig tilgang gør det muligt for teknologien at producere musikklip, der ligner uddrag af musik, som deltagerne hører under scanningen.
Mens AI har opnået bemærkelsesværdig succes med at generere musik, der ligner originalerne, påpeger forskerne, at processen ikke er perfekt.
Overensstemmelsen mellem den genskabte musik og den originale musik var omkring 60%, hvilket indikerer, at AI fanger visse aspekter af sange mere præcist end andre.
Denne banebrydende opdagelse antyder imidlertid et betydeligt potentiale for fremtidig forskning og udvikling på dette område. Undersøgelsen afslørede også specifikke hjerneområder involveret i musikbehandling.
Den primære auditive cortex, hvor lyde fortolkes, aktiveres, når man lytter til musik, hvorimod den laterale præfrontale cortex, forbundet med betydninger og fortolkning, spiller en rolle vigtig.
Desuden rejser forskningen den fascinerende mulighed for at rekonstruere sange, som folk forestiller sig i deres sind, der går ud over den fysiske hørelse.
Med dette låser videnskabsmænd op for mysterierne om den dybe forbindelse mellem musik og sind, og åbner døre til en mere omfattende forståelse af, hvordan musik former den menneskelige oplevelse.
Undersøgelsen kan også have praktiske konsekvenser for udvikling af personlige musikterapier og mere intuitiv interaktion mellem mennesker og teknologi.