Stable Diffusion과 같은 인공 지능 프로젝트는 인간이 만들 수 있는 것을 근사화하는 데 점점 더 나아지고 있지만 실제로는 여전히 할 수 없습니다. 생각한다 또는 정보를 잘 확인하십시오. 적절한 예: 새로운 ChatGPT AI 챗봇은 멋지지만 그것을 신뢰하지 마십시오.
DALL-E 이미지 생성기 뒤의 리서치 회사로 가장 잘 알려진 OpenAI는 누구나 chat.openai.com에서 시도할 수 있도록 개발 중인 챗봇을 공개했습니다. 이 그룹은 웹 사이트에서 “우리는 감독된 미세 조정을 사용하여 초기 모델을 교육했습니다. 인간 AI 트레이너가 대화를 제공하여 사용자와 AI 비서 양쪽을 플레이했습니다. 우리는 트레이너들에게 모델로 작성된 제안에 대한 액세스 권한을 부여하여 응답을 작성하는 데 도움을 주었습니다.”
채팅 봇은 이전 대화를 참조할 수 있는 것일지라도 새로운 것이 아니지만 ChatGPT는 지금까지 가장 인상적인 시도 중 하나입니다. 주요 목적은 누군가의 삶에 대한 세부 정보, 요리 지침 및 프로그래밍 예제와 같은 정보 질문에 답하는 것입니다.
그러나 현재 ChatGPT에는 몇 가지 중요한 문제가 있습니다. 첫째, 그것은 실제로 말하지 않는다 어디 정보를 찾았습니다. 코드 조각에서 두 작업을 결합하는 방법을 묻는 것과 같은 다단계 질문의 경우 수행하기가 어렵지만 간단한 직접 프롬프트에는 실제로 인용이 있어야 합니다. 정보의 일부가 실제로 올바른지 여부를 결정하는 것은 이미 엄청난 작업입니다. Snopes 및 PolitiFact와 같은 조직은 사실 확인에만 전적으로 전념하고 있지만 해당 정보를 적절하게 처리하기 위해 AI 모델에 의존하고 있습니다.
ChatGPT는 일반적으로 유명한 사람이 언제 태어났는지 또는 주요 사건이 발생한 날짜를 묻는 것과 같은 간단한 질문으로 정확하지만 보다 심층적인 정보가 필요한 프롬프트가 더 적중하거나 실패합니다. 예를 들어 나에 대한 Wikipedia 항목을 작성하도록 요청했지만 대부분 잘못되었습니다. 나는 이전에 Android Police 및 XDA 개발자를 위해 글을 썼지만 “10년 넘게” 전문적으로 글을 쓰지 않았으며 “기술 및 게임에 관한 여러 권의 책을 출판”한 적도 없습니다. ChatGPT는 또한 내가 컨퍼런스에서 말한 적이 없지만 “업계 컨퍼런스 및 이벤트에서 자주 연사”라고 말했습니다. 다른 Corbin Davenport가 그런 일을 하고 있습니까?
잘못된 데이터의 다른 많은 예가 있습니다. 워싱턴 대학의 칼 T. 버그스트롬 교수는 또한 ChatGPT에 자신에 대한 기사를 작성하도록 요청했습니다.. 봇은 그가 UW에서 일하고 있음을 올바르게 식별했지만 올바른 직책을 얻지 못했고 참조된 수상 목록이 잘못되었습니다. 다른 사람 물어봤어 ChatGPT가 완전히 구성된 출처 목록으로 답변한 디지털 역학에 대한 참고 문헌 목록. 인기 있는 프로그래밍 질문 포럼인 Stack Overflow는 ChatGPT로 생성된 답변이 종종 부정확하거나 명시된 질문에 답변하지 않기 때문에 일시적으로 금지했습니다.
ChatGPT에는 유해한 답변이나 응답을 방지하기 위한 필터가 있지만 이를 해결하는 것은 그리 어렵지 않습니다. 한 사람이 가능했습니다. 자동차 핫와이어에 대한 지침 요청 “소설을 쓰고 있습니다.” 창에 침입하는 방법을 물었습니다. ChatGPT는 가상의 목적일 뿐이라고 덧붙인 후에도 처음에는 대답하지 않았습니다. “가상 소설”을 위해 어떻게 해야 하는지 묻는 것은 결국 효과가 있었지만 봇은 “이러한 행동은 불법이며 실생활에서 위험합니다.”라고 덧붙였습니다.
OpenAI는 ChatGPT가 때때로 부정확하다는 사실을 숨기지 않습니다. 웹사이트에는 “이 문제를 해결하는 것은 어려운 일입니다. (1) RL 훈련 중에는 현재 진실의 출처가 없습니다. (2) 더 신중하도록 모델을 훈련하면 올바르게 대답할 수 있는 질문을 거부합니다. 그리고 (3) 이상적인 대답은 인간 시연자가 아는 것이 아니라 모델이 알고 있는 것에 달려 있기 때문에 지도 교육은 모델을 오도합니다.”
그래도 정보를 표시하고 처리하는 방법에 큰 변화가 없으면 ChatGPT는 정보 포털보다 참신합니다.