의 지도자 OpenAIChatGPT 개발을 담당하는 조직인 는 "초지능" 지능의 규제를 요구하고 있습니다.
그들은 국제 에너지 기구와 유사한 규제 기관의 창설을 옹호합니다. 다음을 수행할 수 있는 지능을 생성하는 위험으로부터 인류를 보호하는 원자력 타락.
더보기
구글, 언론인 돕는 AI 도구 개발…
개봉하지 않은 오리지널 2007년 iPhone은 거의 $200,000에 판매됩니다. 알다...
회사 웹 사이트에 게시된 간단한 성명에서 공동 창립자 Greg Brockman과 Ilya Sutskever는 CEO Sam Altman과 함께 다음과 같이 말했습니다. 정보 시스템 인증 작업을 시작하기 위해 국제 규제 기관의 창설을 촉구합니다. 인공의.
이 제안은 감사, 보안 표준 준수 테스트, 배포 및 보안 수준의 제한 구현을 수행하는 것을 목표로 합니다. 이러한 조치는 이러한 시스템과 관련된 실존적 위험을 줄이고 잠재적인 위험으로부터 인류를 보호하는 것을 목표로 합니다.
수십 년 동안 연구원들은 실제로 진화를 목격한 초지능과 잠재적으로 관련된 위험을 강조해 왔습니다. 그러나 AI 개발이 급속도로 발전함에 따라 이러한 위험은 점점 더 구체화되고 있습니다.
영형 AI안전센터 미국에 본사를 둔 CAIS(CAIS)는 인공 지능과 관련된 사회적 위험을 완화하는 데 전념하고 있으며 AI 개발과 관련하여 "재앙적" 및 "존재적"으로 간주되는 8가지 위험 범주 예. 심각한 위험이 있으며 우리는 위험에 노출되어 있습니다.
향후 10년 안에 AI 시스템이 여러 영역에서 전문 기술 수준에 도달할 것이라고 상상할 수 있습니다. 오늘날 세계에서 가장 큰 기업 중 일부와 같은 생산성을 발휘할 수 있습니다. OpenAI.
AI의 급속한 진화는 많은 생산 활동에서 효율성과 자동화를 유지하면서 많은 산업을 크게 변화시킬 수 있는 잠재력을 가지고 있습니다.
잠재적인 이점과 보호 측면에서 초지능은 더 발전된 기술로 간주됩니다. 지도자들의 메시지는 인류가 과거에 다루었던 것보다 더 강력하다고 말했습니다.
훨씬 더 번영하는 미래에 대한 전망이 있지만 이 시나리오를 달성하는 데 관련된 위험을 신중하게 관리하는 것이 필수적입니다. 실존적 위험이 발생할 가능성이 있는 상황에서는 노트에 적힌 대로 상황에 따라 대응하는 것이 아니라 능동적인 자세를 취하는 것이 중요하다.
즉각적인 맥락에서 이 그룹은 첨단 연구에 참여하는 회사 간에 "일정 수준의 조정"이 필요함을 강조합니다. AI에서 점점 더 강력 해지는 사회 모델의 원활한 통합을 보장하기 위해 보안.
이러한 조정은 AI 기능의 발전을 제한하려는 이니셔티브 또는 단체 협약을 통해 수립될 수 있습니다. 이러한 접근 방식은 관련된 위험을 고려하여 AI 개발이 통제되고 책임 있는 방식으로 허용되도록 하는 데 핵심이 될 것입니다.
영화와 시리즈, 영화와 관련된 모든 것을 사랑하는 사람. 네트워크에 대한 적극적인 호기심, 항상 웹에 대한 정보에 연결되어 있습니다.