Ett samarbete mellan Google och Osaka University förändrar hur vi förstår relationen mellan musik och sinne.
Använder en "tankeläsning AI", forskare kunde återskapa musik som liknar vad folk lyssnade på när deras hjärnor skannades.
se mer
Mot SP-regeringen ger sig Sverige under bokens effektivitet...
ALLMÄN städning: Google gör varningar om att stänga Gmail-konton
Den banbrytande studien öppnar nya perspektiv på hur musik bearbetas av mänsklig hjärna. Detta kan vara ett viktigt steg mot att förstå hur många aktiviteter som fångas upp av våra hjärnfunktioner. Förstår bättre nedan!
Forskning visar att artificiell intelligens (AI) kan generera musik baserad på hjärnmönster, vilket öppnar dörren för att förstå hur musik påverkar sinnet och känslor.
Resultaten tyder på att hjärnaktivitet kan översättas till musikaliska egenskaper som genre, rytm, humör och instrumentering.
Hittills har rekonstruering av ljud från hjärnaktivitet mestadels utforskats i relation till enkla ljud som mänskligt tal och djurljud.
Men en sådan banbrytande studie av Google och Osaka University har utökat dessa gränser och grävt in i den komplexa världen av musik.
(Bild: Shutterstock/Reproduktion)
AI: s musikskapande process, kallad Brain2Music, använder hjärnbilder som erhållits genom funktionell magnetisk resonanstomografi (fMRI).
Från dessa data gör AI kopplingar mellan hjärnmönster och musikaliska element som genre och humör.
Ett sådant personligt tillvägagångssätt gör det möjligt för tekniken att producera musikklipp som liknar musikavsnitt som hörs av deltagarna under skanningen.
Medan AI har uppnått anmärkningsvärd framgång i att generera musik som liknar originalen, påpekar forskarna att processen inte är perfekt.
Överensstämmelsen mellan den återskapade musiken och originalmusiken var cirka 60 %, vilket indikerar att AI fångar vissa aspekter av låtar mer exakt än andra.
Denna banbrytande upptäckt antyder dock en betydande potential för framtida forskning och utveckling inom detta område. Studien avslöjade också specifika hjärnregioner som är involverade i musikbearbetning.
Den primära hörselbarken, där ljud tolkas, aktiveras när man lyssnar på musik, medan den laterala prefrontala cortex, associerad med betydelser och tolkning, spelar en roll Viktig.
Dessutom lyfter forskningen upp den fascinerande möjligheten att rekonstruera sånger som människor föreställer sig i sina sinnen, som går bortom fysisk hörsel.
Med detta låser forskare upp mysterierna med den djupa kopplingen mellan musik och sinnet, och öppnar dörrar till en mer omfattande förståelse av hur musik formar den mänskliga upplevelsen.
Studien kan också ha praktiska konsekvenser för att utveckla personliga musikterapier och mer intuitiva interaktioner mellan människor och teknik.