közötti együttműködés Google és az Osaka Egyetem megváltoztatja a zene és az elme kapcsolatának megértését.
Használva "gondolatolvasás AI", a kutatók olyan zenét tudtak előállítani, amely hasonló ahhoz, amit az emberek agyuk pásztázása közben hallgattak.
többet látni
Az SP-kormány erejével szemben Svédország megadja magát a könyv hatékonyságának…
ÁLTALÁNOS tisztítás: A Google figyelmezteti a Gmail-fiókok bezárását
Az úttörő tanulmány új távlatokat nyit meg arról, hogyan dolgozza fel a zenét a emberi agy. Ez fontos lépés lehet afelé, hogy megértsük, hány tevékenységet rögzít agyunk működése. Alább értsd meg jobban!
A kutatások azt mutatják, hogy a mesterséges intelligencia (AI) képes az agyi minták alapján zenét generálni, megnyitva az ajtót annak megértéséhez, hogy a zene hogyan hat az elmére és az érzelmekre.
Az eredmények arra utalnak, hogy az agyi tevékenység lefordítható olyan zenei jellemzőkre, mint a műfaj, a ritmus, a hangulat és a hangszerelés.
Eddig az agyi tevékenységből származó hangok rekonstrukcióját többnyire olyan egyszerű hangokkal kapcsolatban vizsgálták, mint az emberi beszéd és az állati zajok.
A Google és az Oszakai Egyetem úttörő tanulmánya azonban kitágította ezeket a határokat, és a zene.
(Kép: Shutterstock/Reprodukció)
Az AI zenealkotási folyamata, a Brain2Music, funkcionális mágneses rezonancia képalkotással (fMRI) nyert agyi képeket használ.
Ezekből az adatokból az AI kapcsolatot teremt az agyminták és a zenei elemek, például a műfaj és a hangulat között.
Ez a személyre szabott megközelítés lehetővé teszi a technológia számára, hogy olyan zenei klipeket állítson elő, amelyek hasonlítanak a résztvevők által a vizsgálat során hallott zenerészletekre.
Míg az AI figyelemre méltó sikereket ért el az eredetihez hasonló zene generálásában, a kutatók rámutatnak, hogy a folyamat nem tökéletes.
Az újraalkotott zene és az eredeti zene közötti összhang 60% körüli volt, ami azt jelzi, hogy a AI a dalok bizonyos aspektusait pontosabban rögzíti, mint másokat.
Ez az úttörő felfedezés azonban jelentős potenciált sejtet a jövőbeli kutatásban és fejlesztésben ezen a területen. A tanulmány azt is feltárta, hogy a zenefeldolgozásban részt vevő speciális agyi régiók találhatók.
Az elsődleges hallókéreg, ahol a hangokat értelmezik, zenehallgatáskor aktiválódik, míg a jelentésekkel és értelmezéssel társított laterális prefrontális kéreg szerepet játszik fontos.
Ezenkívül a kutatás felveti az emberek elméjükben elképzelt dalok rekonstrukciójának lenyűgöző lehetőségét, túlmutatva a fizikai halláson.
Ezzel a tudósok feltárják a zene és az elme közötti mély kapcsolat titkait, ajtót nyitva annak átfogóbb megértéséhez, hogy a zene hogyan alakítja az emberi tapasztalatot.
A tanulmány gyakorlati vonatkozásai is lehetnek a személyre szabott zeneterápiák kifejlesztésében, valamint az emberek és a technológia közötti intuitívabb interakciókban.