ㅏ 오픈AIChatGPT의 모회사인 는 창시자인 Sam Altman의 오고 가는 행정적 불안정에 직면해 있습니다.
그것만으로는 충분하지 않다는 듯, 사건 직전에 정보가 밝혀졌습니다. 이후 복직된 알트만의 해임에 대해 회사 이사회는 보고를 받았다. 놀라운.
더보기
네슬레, 북동부 차미토 박스 라인 다각화 발표
곧 Vivo는 고정 인터넷을 통한 5G 연결을 제공할 예정입니다. 더 알아보세요!
해당 문서에서 연구자들은 Q*, 즉 Q-Star라는 AI 프로그램이 개발되고 있음을 지적했습니다. 동시에 개발되면 인류의 안정에 심각한 위험을 초래할 수 있습니다. 미래.
이 정보를 공개한 로이터 통신사에 따르면 Q*는 기본적으로 기본적인 수준의 수학적 질문에 답하기 위해 광범위한 계산 능력을 사용합니다.
처음에 이 기술을 개발하는 연구자들은 다음과 같은 사실에 흥미를 느꼈습니다. 그녀가 비교적 짧은 시간 내에 질문에 완벽하게 답할 수 있다는 사실 자발적인.
그러나 이 새로운 인공 지능이 나타내는 위험은 이러한 기본 개념에 있지 않습니다. 결국 간단한 계산기라도 덜 복잡한 수학 연산을 수행할 수 있습니다.
전문가들을 정말 놀라게 한 것은 Q-Star가 질문에 응답하는 방식입니다. AI는 기존 계산기의 이진 코드와 같은 정적 계산 패턴을 사용하는 대신 제공되는 각 답변에 고유한 패턴을 사용합니다.
즉, Q*는 앞에 놓인 각 질문에 대해 여러 가지 다른 답변을 제공할 수 있으며, 이는 "발명"의 여지를 남기고 심지어 오해의 소지가 있는 데이터 제공까지 허용합니다.
(이미지: Freepik/복제)
현재의 팡파르에도 불구하고 Q-Star에서 관찰된 이러한 행동은 인공 지능 세계에서 새로운 것이 아닙니다.
자신의 것을 포함한 기타 지능형 챗봇 채팅GPT, 자신의 훈련 방법으로 인해 발생한 실패로 인해 이미 "적발"되었습니다.
일반적으로 AI는 인간의 두뇌와 똑같이 훈련됩니다. 즉, 주어진 정보를 분석하여 패턴을 식별하고 이에 대한 작업을 수행해야 합니다. 우리 인간이 지식을 배우고 전달하는 것이 바로 이 논리입니다.
그러나 그러한 '추론' 능력을 기계에 위임하는 것은 인류에 대한 일종의 '반역'에 대한 위험한 선례를 남길 수 있습니다.
패턴 분석을 통해 인공 지능이 결론을 내리는 것을 방해하는 것은 없기 때문입니다. 인류가 위협적이다거나 특정 인물을 제거해야 한다고 생각합니다. 예.
그보다 더 나쁜 것은 범죄자들이 AI를 이용해 범죄를 저지르고, 정치적, 상업적 결정을 방해하고, 사람들의 이미지를 손상시키는 등의 행위를 할 수 있다는 것입니다.
특정 인물의 이미지를 “더러워지게” 하려면 해당 개인에 대한 부정적인 정보를 AI에 제공하기만 하면 됩니다. 반면 ChatGPT와 같은 챗봇은 사람들이 정치적 측면을 고수하도록 영향을 미치도록 어떤 방식으로든 지시를 받을 수 있습니다.
인공지능이 발전하고 사회 전 분야로 확산됨에 따라 인공지능의 윤리적이고 평화적인 사용에 대한 우려가 논의의 중심에 있어야 합니다.
AI의 목표는 범죄자를 돕거나 인간 관계를 더욱 불안정하게 만드는 무기가 되는 것이 아니라 인류를 다음 단계로 발전시키는 것이어야 합니다.
역사 및 인적 자원 기술을 전공했습니다. 글쓰기에 열정을 갖고 있는 그는 현재 웹 콘텐츠 작가로서 전문적으로 일하며 다양한 틈새 시장과 형식으로 기사를 작성하는 꿈을 갖고 있습니다.