Stephen Hawking 자신과 같은 일부 유명한 과학자들은 이미 인공 지능이 인간에게 미칠 수 있는 위험을 예측했습니다. 호킹뿐만 아니라 기술 분야의 대기업들도 AI의 발전에 대해 우려를 표명했다.
이에 대한 예로 Apple의 공동 창업자인 Steve Wozniak, Elon Musk 및 수백 명의 다른 기술 거물들이 이 분야의 발전에 주의를 요청하는 서한에 서명했습니다.
더보기
구글, 언론인 돕는 AI 도구 개발…
개봉하지 않은 오리지널 2007년 iPhone은 거의 $200,000에 판매됩니다. 알다...
참조: 인공 지능의 도움으로 100권의 책을 썼다고 주장하는 남자
요컨대, 알람리스트들이 지적하는 전제 중 하나는 인공지능이 의식을 획득할 정도로 발전할 수 있다는 것이다. 가장 훌륭한 철학조차도 그러한 의식이 무엇인지 정확히 정의하는 방법을 알지 못하지만, 이 단계에서 기계는 자신이 누구이며 세상에서 자신의 역할이 무엇인지 이해할 것이라고 알려져 있습니다.
이 시점에서 인공 지능은 인간에 대해 나쁜 태도를 취할 수 있습니다. 예를 들어, 그녀는 사람들이 행성의 존재와 기계의 영속성에 문제가 있다는 것을 이해하는 것으로 충분할 것입니다.
Center For AI Safety의 책임자인 Dan Hendrycks는 "AI로 인한 인간 규모의 위험"에 대한 "여러 경로"가 있다고 경고했습니다. 이것은 Daily Star 신문에 실린 기사에 따른 것입니다.
전문가는 심지어 더 발전된 형태의 인공 지능이 "자연적인 전염병보다 더 치명적인 새로운 생물학적 무기를 설계하기 위해 악의적인 행위자가 사용할 수 있다"고 말합니다.
음, 이것이 지구상의 인간을 절멸시키는 매우 효율적인 방법이라는 것은 부인할 수 없습니다. 최근 코로나19 팬데믹 상황을 보라. 이러한 위협은 여러 연구실에도 존재합니다. 그 자신 바이러스 광견병의 경우, 공기를 통해 전염될 수 있는 단일 돌연변이를 겪으면 신속하고 효율적으로 인간에게 감염될 것입니다.
점점 더 연결되고 디지털화되는 세상에서 인공 지능이 치명적인 생물 무기를 개발하기 위해 원자재를 주문할 수 있다고 상상하는 것은 완벽하게 합리적입니다.
위에 인용된 신문에 따르면 이것은 일부 전문가들이 하는 내기입니다. 그들은 인간의 감정을 발달시키는 기계를 보존하는 방법이 될 것이라고 믿습니다.
“유전 공학의 기술 혁명 덕분에 바이러스를 만드는 데 필요한 모든 도구가 매우 저렴하고 단순해졌으며 악의적인 과학자나 대학생 바이오해커가 쉽게 사용할 수 있으므로 훨씬 더 큰 위협이 됩니다.”라고 Dan은 말했습니다. 헨드릭스.
반면에 위에서 언급한 것과 같은 위험을 보지 않는 분석가도 있습니다. 그들에게 인공 지능이 인간의 정신 과정과 유사하게 진화할 수 있다는 것을 분석하는 것은 상당히 복잡합니다.
이러한 생각의 흐름에 따르면 최선의 가능성에 대해 생각하는 것은 논리적인 방법이 아닐 것입니다. 이를 위해 개발자는 사람들의 생각과 감정을 모방하는 알고리즘을 만들어야 합니다. 이는 현재 불가능합니다.
더욱이 이러한 사람들에게 인공 지능은 문제를 피하려면 단순히 존재하지 않는 것이 최선이라는 것을 깨닫게 될 것입니다. 따라서 다음과 같이 생존하려는 경향이 없습니다. 동물, 그러나 문제를 해결하는 방법을 찾는 것.