Een samenwerking tussen Google en Osaka University transformeert de manier waarop we de relatie tussen muziek en de geest begrijpen.
Gebruik maken van een "gedachten lezen AI", waren onderzoekers in staat om muziek te recreëren die lijkt op waar mensen naar luisterden toen hun hersenen werden gescand.
Bekijk meer
Tegen de SP-regering geeft Zweden zich over aan de efficiëntie van het boek...
ALGEMENE opschoning: Google geeft waarschuwingen over het sluiten van Gmail-accounts
De baanbrekende studie opent nieuwe perspectieven op hoe muziek wordt verwerkt door de menselijke brein. Dit zou een belangrijke stap kunnen zijn om te begrijpen hoeveel activiteiten worden vastgelegd door onze hersenfuncties. Begrijp hieronder beter!
Onderzoek toont aan dat kunstmatige intelligentie (AI) in staat is om muziek te genereren op basis van hersenpatronen, waardoor de deur wordt geopend om te begrijpen hoe muziek de geest en emoties beïnvloedt.
De resultaten suggereren dat hersenactiviteit kan worden vertaald in muzikale kenmerken zoals genre, ritme, stemming en instrumentatie.
Tot nu toe is het reconstrueren van geluiden uit hersenactiviteit vooral onderzocht in relatie tot eenvoudige geluiden zoals menselijke spraak en dierengeluiden.
Een dergelijk baanbrekend onderzoek door Google en de universiteit van Osaka heeft deze grenzen echter verlegd en zich verdiept in de complexe wereld van muziek.
(Afbeelding: Shutterstock/Reproductie)
Het muziekcreatieproces van de AI, Brain2Music genaamd, maakt gebruik van hersenbeelden die zijn verkregen door functionele magnetische resonantiebeeldvorming (fMRI).
Vanuit deze data legt de AI verbanden tussen hersenpatronen en muzikale elementen als genre en stemming.
Door een dergelijke gepersonaliseerde aanpak kan de technologie muziekclips produceren die lijken op muziekfragmenten die de deelnemers tijdens de scan horen.
Hoewel de AI opmerkelijk succes heeft geboekt bij het genereren van muziek die vergelijkbaar is met de originelen, wijzen de onderzoekers erop dat het proces niet perfect is.
De overeenstemming tussen de opnieuw gemaakte muziek en de originele muziek was ongeveer 60%, wat aangeeft dat de AI legt bepaalde aspecten van nummers nauwkeuriger vast dan andere.
Deze baanbrekende ontdekking wijst echter op een aanzienlijk potentieel voor toekomstig onderzoek en ontwikkeling op dit gebied. De studie onthulde ook specifieke hersengebieden die betrokken zijn bij muziekverwerking.
De primaire auditieve cortex, waar geluiden worden geïnterpreteerd, wordt geactiveerd bij het luisteren naar muziek de laterale prefrontale cortex, geassocieerd met betekenissen en interpretatie, speelt een rol belangrijk.
Bovendien brengt het onderzoek de fascinerende mogelijkheid naar voren om liedjes te reconstrueren die mensen zich in hun hoofd voorstellen, waarbij ze verder gaan dan het fysieke gehoor.
Hiermee ontrafelen wetenschappers de mysteries van de diepe verbinding tussen muziek en de geest, en openen ze deuren naar een beter begrip van hoe muziek de menselijke ervaring vormgeeft.
De studie kan ook praktische implicaties hebben voor het ontwikkelen van gepersonaliseerde muziektherapieën en meer intuïtieve interacties tussen mens en technologie.