O colaborare între Google iar Universitatea din Osaka transformă modul în care înțelegem relația dintre muzică și minte.
Folosind un "AI citind mintea„, cercetătorii au reușit să recreeze muzică similară cu ceea ce ascultau oamenii atunci când le-a fost scanat creierul.
Vezi mai mult
Împotriva guvernului SP, Suedia se predă eficienței cărții...
Curățare GENERALĂ: Google face alerte despre închiderea conturilor Gmail
Studiul inovator deschide noi perspective asupra modului în care muzica este procesată de către creier uman. Acesta ar putea fi un pas important către înțelegerea câte activități sunt captate de funcțiile creierului nostru. Înțelegeți mai bine mai jos!
Cercetările demonstrează că inteligența artificială (IA) este capabilă să genereze muzică pe baza modelelor creierului, deschizând ușa pentru înțelegerea modului în care muzica afectează mintea și emoțiile.
Rezultatele sugerează că activitatea creierului poate fi tradusă în caracteristici muzicale precum genul, ritmul, starea de spirit și instrumentația.
Până acum, reconstrucția sunetelor din activitatea creierului a fost explorată în principal în relație cu sunete simple precum vorbirea umană și zgomotele animalelor.
Cu toate acestea, un astfel de studiu de pionierat al Google și al Universității din Osaka a extins aceste granițe, aprofundând în lumea complexă a muzică.
(Imagine: Shutterstock/Reproducție)
Procesul de creare a muzicii AI, numit Brain2Music, folosește imagini ale creierului obținute prin imagistica prin rezonanță magnetică funcțională (fMRI).
Din aceste date, AI realizează conexiuni între tiparele creierului și elementele muzicale, cum ar fi genul și starea de spirit.
O astfel de abordare personalizată permite tehnologiei să producă clipuri muzicale care seamănă cu fragmente de muzică auzite de participanți în timpul scanării.
În timp ce AI a obținut un succes notabil în generarea de muzică similară cu originalele, cercetătorii subliniază că procesul nu este perfect.
Concordanța dintre muzica recreată și muzica originală a fost de aproximativ 60%, indicând faptul că AI surprinde anumite aspecte ale cântecelor mai precis decât altele.
Cu toate acestea, această descoperire revoluționară indică un potențial semnificativ pentru cercetare și dezvoltare viitoare în acest domeniu. Studiul a dezvăluit, de asemenea, regiuni specifice ale creierului implicate în procesarea muzicii.
Cortexul auditiv primar, unde sunetele sunt interpretate, este activat atunci când ascultați muzică cortexul prefrontal lateral, asociat cu semnificații și interpretare, joacă un rol important.
Mai mult, cercetarea ridică posibilitatea fascinantă de a reconstrui cântece pe care oamenii le imaginează în mintea lor, mergând dincolo de auzul fizic.
Prin aceasta, oamenii de știință dezvăluie misterele conexiunii profunde dintre muzică și minte, deschizând ușile către o înțelegere mai cuprinzătoare a modului în care muzica modelează experiența umană.
Studiul ar putea avea, de asemenea, implicații practice pentru dezvoltarea de terapii muzicale personalizate și interacțiuni mai intuitive între oameni și tehnologie.