Kolaborasi antara Google dan Universitas Osaka mengubah cara kita memahami hubungan antara musik dan pikiran.
Menggunakan sebuah "membaca pikiran AI“, para peneliti dapat membuat ulang musik yang mirip dengan yang didengarkan orang saat otak mereka dipindai.
lihat lebih banyak
Melawan pemerintah SP, Swedia menyerah pada efisiensi buku…
Pembersihan UMUM: Google membuat peringatan tentang penutupan akun Gmail
Studi terobosan membuka perspektif baru tentang bagaimana musik diproses oleh otak manusia. Ini bisa menjadi langkah penting untuk memahami berapa banyak aktivitas yang ditangkap oleh fungsi otak kita. Pahami lebih baik di bawah ini!
Penelitian menunjukkan bahwa Kecerdasan Buatan (AI) mampu menghasilkan musik berdasarkan pola otak, membuka pintu untuk memahami bagaimana musik memengaruhi pikiran dan emosi.
Hasilnya menunjukkan bahwa aktivitas otak dapat diterjemahkan ke dalam karakteristik musik seperti genre, ritme, suasana hati, dan instrumentasi.
Sejauh ini, merekonstruksi suara dari aktivitas otak sebagian besar telah dieksplorasi dalam kaitannya dengan suara sederhana seperti ucapan manusia dan suara binatang.
Namun, studi perintis oleh Google dan Universitas Osaka telah memperluas batas-batas ini, menggali ke dalam dunia yang kompleks musik.
(Gambar: Shutterstock/Reproduksi)
Proses pembuatan musik AI, yang disebut Brain2Music, menggunakan gambar otak yang diperoleh dengan pencitraan resonansi magnetik fungsional (fMRI).
Dari data ini, AI membuat hubungan antara pola otak dan elemen musik seperti genre dan suasana hati.
Pendekatan yang dipersonalisasi memungkinkan teknologi menghasilkan klip musik yang menyerupai potongan musik yang didengar oleh peserta selama pemindaian.
Meskipun AI telah mencapai kesuksesan yang luar biasa dalam menghasilkan musik yang mirip dengan aslinya, para peneliti menunjukkan bahwa prosesnya tidak sempurna.
Kesesuaian antara musik yang dibuat ulang dan musik aslinya sekitar 60%, menunjukkan bahwa AI menangkap aspek tertentu dari lagu lebih akurat daripada yang lain.
Namun, penemuan inovatif ini mengisyaratkan potensi signifikan untuk penelitian dan pengembangan di masa depan di bidang ini. Studi ini juga mengungkapkan daerah otak tertentu yang terlibat dalam pemrosesan musik.
Korteks pendengaran utama, di mana suara ditafsirkan, diaktifkan saat mendengarkan musik korteks prefrontal lateral, terkait dengan makna dan interpretasi, berperan penting.
Selain itu, penelitian ini meningkatkan kemungkinan menarik untuk merekonstruksi lagu yang dibayangkan orang dalam pikiran mereka, melampaui pendengaran fisik.
Dengan ini, para ilmuwan membuka misteri hubungan mendalam antara musik dan pikiran, membuka pintu untuk pemahaman yang lebih komprehensif tentang bagaimana musik membentuk pengalaman manusia.
Studi ini juga dapat memiliki implikasi praktis untuk mengembangkan terapi musik yang dipersonalisasi dan interaksi yang lebih intuitif antara manusia dan teknologi.