사이의 협력 Google 오사카 대학은 음악과 마음의 관계를 이해하는 방식을 변화시키고 있습니다.
"를 사용하여마음을 읽는 AI", 연구원들은 사람들이 뇌를 스캔했을 때 들었던 것과 유사한 음악을 재현할 수 있었습니다.
더보기
SP 정부의 곡물에 맞서 스웨덴은 책의 효율성에 굴복합니다…
일반 청소: Google에서 Gmail 계정 폐쇄에 대해 알림을 보냅니다.
획기적인 연구는 음악이 어떻게 처리되는지에 대한 새로운 관점을 열어줍니다. 인간의 뇌. 이것은 우리의 뇌 기능이 얼마나 많은 활동을 포착하는지 이해하는 데 중요한 단계가 될 수 있습니다. 아래에서 더 잘 이해하십시오!
연구에 따르면 인공 지능(AI)이 뇌 패턴을 기반으로 음악을 생성할 수 있어 음악이 마음과 감정에 미치는 영향을 이해할 수 있는 문이 열립니다.
결과는 뇌 활동이 장르, 리듬, 분위기 및 악기와 같은 음악적 특성으로 변환될 수 있음을 시사합니다.
지금까지 뇌 활동에서 소리를 재구성하는 것은 인간의 말이나 동물의 소음과 같은 단순한 소리와 관련하여 대부분 탐구되었습니다.
그러나 Google과 오사카 대학의 선구적인 연구는 이러한 경계를 확장하여 복잡한 세계를 탐구했습니다. 음악.
(이미지: Shutterstock/복제)
Brain2Music이라고 하는 AI의 음악 생성 프로세스는 기능적 자기 공명 영상(fMRI)으로 얻은 뇌 이미지를 사용합니다.
이 데이터에서 AI는 뇌 패턴과 장르 및 분위기와 같은 음악적 요소를 연결합니다.
이러한 개인화된 접근 방식을 통해 이 기술은 스캔 중에 참가자가 듣는 음악 조각과 유사한 음악 클립을 생성할 수 있습니다.
AI가 원곡과 유사한 음악을 생성하는 데 괄목할 만한 성공을 거둔 반면, 연구원들은 그 과정이 완벽하지 않다는 점을 지적한다.
재창조된 음악과 원곡의 일치도는 약 60%로, 일체 포함 노래의 특정 측면을 다른 부분보다 더 정확하게 캡처합니다.
그러나 이 획기적인 발견은 이 분야의 향후 연구 및 개발에 대한 상당한 잠재력을 암시합니다. 이 연구는 또한 음악 처리와 관련된 특정 뇌 영역을 밝혀냈습니다.
소리를 해석하는 일차 청각 피질은 음악을 들을 때 활성화되지만, 의미와 해석과 관련된 외측 전두엽 피질이 중요한 역할을 합니다. 중요한.
나아가 이 연구는 사람들이 머릿속으로 상상하는 노래를 물리적 청각을 넘어 재구성할 수 있는 매혹적인 가능성을 제기한다.
이를 통해 과학자들은 음악과 마음 사이의 심오한 연결의 신비를 풀고 음악이 인간의 경험을 형성하는 방법에 대한 보다 포괄적인 이해의 문을 열고 있습니다.
이 연구는 또한 개인화된 음악 요법을 개발하고 인간과 기술 간의 보다 직관적인 상호 작용을 개발하는 데 실질적인 영향을 미칠 수 있습니다.