Une collaboration entre Google et l'Université d'Osaka transforme notre façon de comprendre la relation entre la musique et l'esprit.
Utilisant un "esprit lecture IA», les chercheurs ont pu recréer une musique similaire à celle que les gens écoutaient lorsque leur cerveau a été scanné.
voir plus
Face au gouvernement PS, la Suède cède à l'efficacité du livre…
Nettoyage GÉNÉRAL: Google émet des alertes sur la fermeture des comptes Gmail
L'étude révolutionnaire ouvre de nouvelles perspectives sur la façon dont la musique est traitée par le cerveau humain. Cela pourrait être une étape importante pour comprendre combien d'activités sont capturées par nos fonctions cérébrales. Comprenez mieux ci-dessous!
La recherche démontre que l'intelligence artificielle (IA) est capable de générer de la musique basée sur des schémas cérébraux, ouvrant la porte à la compréhension de la façon dont la musique affecte l'esprit et les émotions.
Les résultats suggèrent que l'activité cérébrale peut être traduite en caractéristiques musicales telles que le genre, le rythme, l'humeur et l'instrumentation.
Jusqu'à présent, la reconstruction des sons à partir de l'activité cérébrale a principalement été explorée en relation avec des sons simples comme la parole humaine et les bruits d'animaux.
Cependant, une telle étude pionnière de Google et de l'Université d'Osaka a repoussé ces frontières, plongeant dans le monde complexe de musique.
(Image: Shutterstock/Reproduction)
Le processus de création musicale de l'IA, appelé Brain2Music, utilise des images cérébrales obtenues par imagerie par résonance magnétique fonctionnelle (fMRI).
À partir de ces données, l'IA établit des liens entre les schémas cérébraux et les éléments musicaux tels que le genre et l'humeur.
Une telle approche personnalisée permet à la technologie de produire des clips musicaux qui ressemblent à des extraits de musique entendus par les participants lors de l'analyse.
Alors que l'IA a obtenu un succès notable dans la génération de musique similaire aux originaux, les chercheurs soulignent que le processus n'est pas parfait.
La concordance entre la musique recréée et la musique originale était d'environ 60%, indiquant que la IA capture certains aspects des chansons avec plus de précision que d'autres.
Cependant, cette découverte révolutionnaire laisse entrevoir un potentiel important pour la recherche et le développement futurs dans ce domaine. L'étude a également révélé des régions cérébrales spécifiques impliquées dans le traitement de la musique.
Le cortex auditif primaire, où les sons sont interprétés, est activé lors de l'écoute de la musique, alors que le cortex préfrontal latéral, associé aux significations et à l'interprétation, joue un rôle important.
De plus, la recherche soulève la possibilité fascinante de reconstruire des chansons que les gens imaginent dans leur esprit, allant au-delà de l'audition physique.
Avec cela, les scientifiques dévoilent les mystères du lien profond entre la musique et l'esprit, ouvrant les portes à une compréhension plus complète de la façon dont la musique façonne l'expérience humaine.
L'étude pourrait également avoir des implications pratiques pour développer des thérapies musicales personnalisées et des interactions plus intuitives entre les humains et la technologie.