Una colaboración entre Google y la Universidad de Osaka está transformando la forma en que entendemos la relación entre la música y la mente.
Usando un "IA que lee la mente“, los investigadores pudieron recrear música similar a la que escuchaba la gente cuando se escanearon sus cerebros.
vea mas
A contrapelo del gobierno del PS, Suecia se rinde ante la eficiencia del libro…
Limpieza GENERAL: Google hace alertas sobre cierre de cuentas de Gmail
El innovador estudio abre nuevas perspectivas sobre cómo la música es procesada por el cerebro humano. Este podría ser un paso importante para comprender cuántas actividades son capturadas por nuestras funciones cerebrales. ¡Entiende mejor a continuación!
La investigación demuestra que la Inteligencia Artificial (IA) es capaz de generar música basada en patrones cerebrales, lo que abre la puerta a la comprensión de cómo la música afecta la mente y las emociones.
Los resultados sugieren que la actividad cerebral se puede traducir en características musicales como el género, el ritmo, el estado de ánimo y la instrumentación.
Hasta ahora, la reconstrucción de sonidos a partir de la actividad cerebral se ha explorado principalmente en relación con sonidos simples como el habla humana y los ruidos de animales.
Sin embargo, un estudio tan pionero de Google y la Universidad de Osaka ha ampliado estos límites, ahondando en el complejo mundo de música.
(Imagen: Shutterstock/Reproducción)
El proceso de creación de música de la IA, llamado Brain2Music, utiliza imágenes cerebrales obtenidas por resonancia magnética funcional (fMRI).
A partir de estos datos, la IA establece conexiones entre patrones cerebrales y elementos musicales como el género y el estado de ánimo.
Este enfoque personalizado permite que la tecnología produzca clips de música que se asemejan a fragmentos de música escuchados por los participantes durante el escaneo.
Si bien la IA ha logrado un éxito notable en la generación de música similar a la original, los investigadores señalan que el proceso no es perfecto.
La concordancia entre la música recreada y la música original rondaba el 60%, lo que indica que la AI captura ciertos aspectos de las canciones con más precisión que otros.
Sin embargo, este descubrimiento innovador sugiere un potencial significativo para futuras investigaciones y desarrollos en este campo. El estudio también reveló regiones cerebrales específicas involucradas en el procesamiento de la música.
La corteza auditiva primaria, donde se interpretan los sonidos, se activa al escuchar música, mientras que la corteza prefrontal lateral, asociada con los significados y la interpretación, juega un papel importante.
Además, la investigación plantea la fascinante posibilidad de reconstruir canciones que las personas van imaginando en su mente, más allá de la audición física.
Con esto, los científicos están descifrando los misterios de la profunda conexión entre la música y la mente, abriendo las puertas a una comprensión más completa de cómo la música da forma a la experiencia humana.
El estudio también podría tener implicaciones prácticas para desarrollar terapias musicales personalizadas e interacciones más intuitivas entre humanos y tecnología.