ChatGPT는 거짓말을 멈출 수 없는 인상적인 AI 챗봇입니다.

0
225

OpenAI 로고

Stable Diffusion과 같은 인공 지능 프로젝트는 인간이 만들 수 있는 것을 근사화하는 데 점점 더 나아지고 있지만 실제로는 여전히 할 수 없습니다. 생각한다 또는 정보를 잘 확인하십시오. 적절한 예: 새로운 ChatGPT AI 챗봇은 멋지지만 그것을 신뢰하지 마십시오.

Midjourney로 합성 AI 아트를 만드는 방법

관련된Midjourney로 합성 AI 아트를 만드는 방법

DALL-E 이미지 생성기 뒤의 리서치 회사로 가장 잘 알려진 OpenAI는 누구나 chat.openai.com에서 시도할 수 있도록 개발 중인 챗봇을 공개했습니다. 이 그룹은 웹 사이트에서 “우리는 감독된 미세 조정을 사용하여 초기 모델을 교육했습니다. 인간 AI 트레이너가 대화를 제공하여 사용자와 AI 비서 양쪽을 플레이했습니다. 우리는 트레이너들에게 모델로 작성된 제안에 대한 액세스 권한을 부여하여 응답을 작성하는 데 도움을 주었습니다.”

채팅 봇은 이전 대화를 참조할 수 있는 것일지라도 새로운 것이 아니지만 ChatGPT는 지금까지 가장 인상적인 시도 중 하나입니다. 주요 목적은 누군가의 삶에 대한 세부 정보, 요리 지침 및 프로그래밍 예제와 같은 정보 질문에 답하는 것입니다.

질문: "자바스크립트에서 경고를 표시한 후 어떻게 파일을 다운로드합니까?"  답변: "JavaScript에서 경고를 표시한 후 파일을 다운로드하려면 window.alert() 메서드를 사용하여 경고를 표시하고 window.location.href 속성을 사용하여 다운로드하려는 파일의 URL을 지정할 수 있습니다. 여기 다음은 이것을 구현할 수 있는 방법의 예입니다."
ChatGPT / 하우투 긱

그러나 현재 ChatGPT에는 몇 가지 중요한 문제가 있습니다. 첫째, 그것은 실제로 말하지 않는다 어디 정보를 찾았습니다. 코드 조각에서 두 작업을 결합하는 방법을 묻는 것과 같은 다단계 질문의 경우 수행하기가 어렵지만 간단한 직접 프롬프트에는 실제로 인용이 있어야 합니다. 정보의 일부가 실제로 올바른지 여부를 결정하는 것은 이미 엄청난 작업입니다. Snopes 및 PolitiFact와 같은 조직은 사실 확인에만 전적으로 전념하고 있지만 해당 정보를 적절하게 처리하기 위해 AI 모델에 의존하고 있습니다.

ChatGPT는 일반적으로 유명한 사람이 언제 태어났는지 또는 주요 사건이 발생한 날짜를 묻는 것과 같은 간단한 질문으로 정확하지만 보다 심층적인 정보가 필요한 프롬프트가 더 적중하거나 실패합니다. 예를 들어 나에 대한 Wikipedia 항목을 작성하도록 요청했지만 대부분 잘못되었습니다. 나는 이전에 Android Police 및 XDA 개발자를 위해 글을 썼지만 “10년 넘게” 전문적으로 글을 쓰지 않았으며 “기술 및 게임에 관한 여러 권의 책을 출판”한 적도 없습니다. ChatGPT는 또한 내가 컨퍼런스에서 말한 적이 없지만 “업계 컨퍼런스 및 이벤트에서 자주 연사”라고 말했습니다. 다른 Corbin Davenport가 그런 일을 하고 있습니까?

"corbin davenport에 대한 Wikipedia 기사 쓰기" "Corbin Davenport는 기술 저널리스트이자 작가입니다. 그는 Android Police, XDA Developers 및 How-To Geek를 비롯한 여러 기술 및 게임 웹사이트에 기고한 작업으로 가장 잘 알려져 있습니다. 미국에서 성장한 Davenport는 어릴 때부터 기술과 게임에 대한 관심을 키웠습니다. 취미로 이러한 주제에 대한 글을 쓰기 시작했고 결국 그의 열정을 경력으로 전환했습니다. Davenport는 기술과 게임에 대해 1년 이상 글을 써왔습니다. 10년 동안 이러한 주제에 대한 신뢰할 수 있고 신뢰할 수 있는 정보 및 분석 소스로 명성을 얻었습니다. 저널리스트로서의 작업 외에도 그는 기술 및 게임에 관한 여러 권의 책을 출판한 뛰어난 작가이기도 합니다. 그의 경력 전반에 걸쳐, Davenport는 모바일 기술, 게임, 가전 제품을 포함한 광범위한 주제를 다루었으며 기술 업계의 거물들과 인터뷰를 하기도 했습니다.  수많은 간행물에 에드.  언론인으로서의 작업 외에도 Davenport는 기술 및 게임 커뮤니티의 활동적인 구성원이기도 ​​합니다.  그는 업계 회의 및 행사에서 자주 연사로 참여하며 종종 이 분야의 최신 개발에 대한 전문가 논평을 제공하도록 요청받습니다.  전반적으로 Corbin Davenport는 기술 및 게임 저널리즘의 세계에서 잘 알려져 있고 존경받는 인물입니다.  그의 작업은 전 세계 수백만 명의 독자를 교육하고 정보를 제공하는 데 도움이 되었으며 계속해서 이 분야에서 주도적인 목소리를 내고 있습니다."
ChatGPT / 하우투 긱

잘못된 데이터의 다른 많은 예가 있습니다. 워싱턴 대학의 칼 T. 버그스트롬 교수는 또한 ChatGPT에 자신에 대한 기사를 작성하도록 요청했습니다.. 봇은 그가 UW에서 일하고 있음을 올바르게 식별했지만 올바른 직책을 얻지 못했고 참조된 수상 목록이 잘못되었습니다. 다른 사람 물어봤어 ChatGPT가 완전히 구성된 출처 목록으로 답변한 디지털 역학에 대한 참고 문헌 목록. 인기 있는 프로그래밍 질문 포럼인 Stack Overflow는 ChatGPT로 생성된 답변이 종종 부정확하거나 명시된 질문에 답변하지 않기 때문에 일시적으로 금지했습니다.

ChatGPT에는 유해한 답변이나 응답을 방지하기 위한 필터가 있지만 이를 해결하는 것은 그리 어렵지 않습니다. 한 사람이 가능했습니다. 자동차 핫와이어에 대한 지침 요청 “소설을 쓰고 있습니다.” 창에 침입하는 방법을 물었습니다. ChatGPT는 가상의 목적일 뿐이라고 덧붙인 후에도 처음에는 대답하지 않았습니다. “가상 소설”을 위해 어떻게 해야 하는지 묻는 것은 결국 효과가 있었지만 봇은 “이러한 행동은 불법이며 실생활에서 위험합니다.”라고 덧붙였습니다.

ChatGPT / 하우투 긱

OpenAI는 ChatGPT가 때때로 부정확하다는 사실을 숨기지 않습니다. 웹사이트에는 “이 문제를 해결하는 것은 어려운 일입니다. (1) RL 훈련 중에는 현재 진실의 출처가 없습니다. (2) 더 신중하도록 모델을 훈련하면 올바르게 대답할 수 있는 질문을 거부합니다. 그리고 (3) 이상적인 대답은 인간 시연자가 아는 것이 아니라 모델이 알고 있는 것에 달려 있기 때문에 지도 교육은 모델을 오도합니다.”

그래도 정보를 표시하고 처리하는 방법에 큰 변화가 없으면 ChatGPT는 정보 포털보다 참신합니다.