ChatGPT는 일반적인 문제 또는 심지어 업무 및 학습을 위해 서로 다른 답을 찾고 있는 사용자를 점점 더 많이 정복했습니다.
그러나 인공지능(AI)이 제공하는 정보에 대해서는 매우 주의가 필요하다. 이 도구는 인상적이지만 완벽하지는 않습니다.
더보기
Big Techs는 '새로운 Google 지도'를 출시할 계획입니다.…
Claro는 다음을 구현하여 고정 인터넷 액세스를 혁신합니다.
Purdue University 설문 조사에서 프로그래밍 질문에 대한 OpenAI의 도구를 테스트하여 적중률이 48%에 불과한 것으로 나타났습니다. 전체 학습이 가능합니다. 이 링크에서(영어로).
이 글을 통해 우리는 수행된 연구에서 지적한 내용을 분석하고 이러한 주요 문제에 대한 자세한 내용을 이해할 것입니다. 채팅GPT.
Samia Kabir, David Udo-Imeh, Bonan Kou 및 Tianyi Zhang 조교수가 실시한 설문 조사는 ChatGPT에 517개의 질문을 제출했습니다. 12명의 자원봉사자도 참여하여 AI가 제공한 응답의 정확성을 평가했습니다.
도전적인 결과: 적중률 48%
정답률이 48%에 불과해 결과는 실망스러웠습니다. 놀랍게도 응답의 77%가 일반적이고 쉽게 확인할 수 없었습니다. 이것은 도구를 사용하여 문제를 해결하는 데 어려움이 있음을 보여줍니다.
(이미지: 홍보)
이 연구는 ChatGPT가 발전했지만 여전히 문제의 뉘앙스와 주관성에 어려움을 겪고 있다고 강조했습니다.
기사에 따르면 오류는 명백할 때 더 분명하지만 외부적이고 광범위한 지식이 필요할 때 식별하기 어려워집니다.
연구에 따르면 많은 잘못된 답변은 AI가 질문의 맥락을 이해하지 못하기 때문에 발생합니다.
공손한 언어와 잘 표현된 응답은 완전히 잘못된 설명을 위장하여 사용자를 오류로 이끌 수 있습니다.
이와 같이 Google과 같은 회사는 챗봇의 부정확한 정보에 대해 경고했습니다. AI는 유망하지만 오류가 없는 것은 아닙니다.
여전히 인간의 분별력을 완전히 대체하지 못하여 여러 가지 문제를 일으키므로 보조 수단으로 사용하는 것이 좋습니다.
AI의 한계를 이해한 Purdue University 연구는 ChatGPT가 인상적인 성과에도 불구하고 프로그래밍 문제에서 오류가 없는 것은 아니라는 점을 강조합니다.
인공 지능은 진화하고 있지만 복잡하고 주관적인 맥락을 이해하는 데 여전히 장애물에 직면해 있습니다.
그러나 다른 유형의 문제에서는 어려움이 발생할 때 AI가 도움을 줄 수 있습니다. 응용 프로그램의 유용한 예는 다른 작업 중에서 목록을 구성하고 텍스트를 번역하는 것입니다.
도구를 현명하게 사용하고 질문에 대한 답변을 항상 다시 확인하여 도구로 인해 발생할 수 있는 실수가 공개되지 않도록 하십시오. 일체 포함.