Eine Zusammenarbeit zwischen Google und die Universität Osaka verändert die Art und Weise, wie wir die Beziehung zwischen Musik und Geist verstehen.
Verwendung einer "Gedankenlesende KI„Forscher konnten Musik reproduzieren, die dem ähnelte, was Menschen hörten, als ihre Gehirne gescannt wurden.“
Mehr sehen
Gegen die SP-Regierung kapituliert Schweden vor der Effizienz des Buches …
ALLGEMEINE Bereinigung: Google benachrichtigt Sie über die Schließung von Gmail-Konten
Die bahnbrechende Studie eröffnet neue Perspektiven auf die Verarbeitung von Musik menschliches Gehirn. Dies könnte ein wichtiger Schritt zum Verständnis sein, wie viele Aktivitäten von unseren Gehirnfunktionen erfasst werden. Verstehen Sie es weiter unten besser!
Untersuchungen zeigen, dass künstliche Intelligenz (KI) in der Lage ist, Musik auf der Grundlage von Gehirnmustern zu erzeugen und so die Tür zum Verständnis zu öffnen, wie Musik den Geist und die Emotionen beeinflusst.
Die Ergebnisse legen nahe, dass die Gehirnaktivität in musikalische Merkmale wie Genre, Rhythmus, Stimmung und Instrumentierung übersetzt werden kann.
Bisher wurde die Rekonstruktion von Geräuschen aus der Gehirnaktivität hauptsächlich in Bezug auf einfache Geräusche wie menschliche Sprache und Tiergeräusche untersucht.
Eine solch bahnbrechende Studie von Google und der Universität Osaka hat diese Grenzen jedoch erweitert und ist in die komplexe Welt von eingetaucht Musik.
(Bild: Shutterstock/Reproduktion)
Der Musikerstellungsprozess der KI, Brain2Music genannt, nutzt Gehirnbilder, die durch funktionelle Magnetresonanztomographie (fMRT) gewonnen wurden.
Aus diesen Daten stellt die KI Verbindungen zwischen Gehirnmustern und musikalischen Elementen wie Genre und Stimmung her.
Ein solcher personalisierter Ansatz ermöglicht es der Technologie, Musikclips zu produzieren, die Musikausschnitten ähneln, die die Teilnehmer während des Scans gehört haben.
Während die KI bemerkenswerte Erfolge bei der Generierung von Musik erzielt hat, die den Originalen ähnelt, weisen die Forscher darauf hin, dass der Prozess nicht perfekt ist.
Die Übereinstimmung zwischen der nachgebildeten Musik und der Originalmusik betrug etwa 60 %, was darauf hindeutet, dass die KI Erfasst bestimmte Aspekte von Songs genauer als andere.
Diese bahnbrechende Entdeckung weist jedoch auf ein erhebliches Potenzial für zukünftige Forschung und Entwicklung auf diesem Gebiet hin. Die Studie enthüllte auch bestimmte Gehirnregionen, die an der Musikverarbeitung beteiligt sind.
Der primäre auditorische Kortex, in dem Geräusche interpretiert werden, wird beim Musikhören aktiviert Der laterale präfrontale Kortex, der mit Bedeutungen und Interpretationen verbunden ist, spielt eine Rolle wichtig.
Darüber hinaus eröffnet die Forschung die faszinierende Möglichkeit, Lieder zu rekonstruieren, die sich Menschen in ihrem Kopf vorstellen, und zwar über das physische Hören hinaus.
Damit lüften Wissenschaftler die Geheimnisse der tiefgreifenden Verbindung zwischen Musik und Geist und öffnen Türen zu einem umfassenderen Verständnis dafür, wie Musik die menschliche Erfahrung prägt.
Die Studie könnte auch praktische Auswirkungen auf die Entwicklung personalisierter Musiktherapien und intuitiverer Interaktionen zwischen Mensch und Technologie haben.