ChatGPT를 사용하면 안 되는 6가지

0
276
ChatGPT를 사용하면 안 되는 6가지
Justin Duino / 하우투 긱

ChatGPT는 일관되고 적절한 응답을 생성할 수 있는 강력한 AI 도구이지만 한계가 있습니다. 민감한 정보를 위한 안전한 채널, 법률 또는 의학적 조언을 위한 신뢰할 수 있는 출처, 인간의 의사 결정 또는 전문적인 정신 건강 지원을 대체하는 것, 결정적인 진실의 출처 또는 복잡한 수학을 위한 정확한 도구가 아닙니다.

ChatGPT는 믿을 수 없을 정도로 강력하며 우리가 컴퓨터와 상호 작용하는 방식에 혁신적인 영향을 미쳤습니다. 그러나 다른 도구와 마찬가지로 제한 사항을 이해하고 책임감 있게 사용하는 것이 중요합니다. 다음은 ChatGPT를 사용하면 안 되는 5가지 사항입니다.

ChatGPT의 한계

세부 사항을 살펴보기 전에 ChatGPT의 한계를 이해하는 것이 중요합니다. 첫째, 대화 중에 명시적으로 제공하거나 ChatGPT 플러그인을 활성화한 경우가 아니면 실시간 또는 개인 데이터에 액세스할 수 없습니다. 브라우징을 활성화하지 않으면(ChatGPT Plus가 필요함) 2021년 9월 교육이 중단될 때까지 다양한 범위의 인터넷 텍스트를 포함하여 교육 중에 학습한 패턴과 정보를 기반으로 응답을 생성합니다. ” 인간적인 의미의 모든 것 또는 사람들이 하는 방식으로 맥락을 이해합니다.

ChatGPT는 종종 놀랍도록 일관되고 적절한 응답을 생성하지만 오류가 없는 것은 아닙니다. 부정확하거나 무의미한 답변을 생성할 수 있습니다. 그것의 숙련도는 주어진 프롬프트의 품질과 명확성에 크게 좌우됩니다.

관련된: ChatGPT로 할 수 있는 8가지 놀라운 일

1. 민감한 정보와 함께 ChatGPT를 사용하지 마세요

디자인과 작동 방식을 고려할 때 ChatGPT는 민감한 정보를 공유하거나 처리하기 위한 안전한 채널이 아닙니다. 여기에는 재무 정보, 암호, 개인 식별 정보 또는 기밀 데이터가 포함됩니다.

최근 OpenAI는 채팅이 저장되거나 향후 교육에 사용되는 것을 방지하기 위해 새로운 종류의 “시크릿” 모드를 추가했지만 그 약속을 신뢰할 수 있는지 여부는 사용자만이 결정할 수 있습니다. 삼성과 같은 일부 회사는 데이터 유출로 인해 직원이 업무 목적으로 ChatGPT를 사용하는 것을 이미 금지했습니다.

2. 법률 또는 의학적 조언에 사용하지 마십시오.

ChatGPT는 인증되지 않았으며 정확한 법률 또는 의료 조언을 제공할 수 없습니다. 응답은 학습된 데이터에서 사용할 수 있는 패턴과 정보를 기반으로 합니다. 개별 법적 또는 의료 사례의 뉘앙스와 세부 사항을 이해할 수 없습니다. 법률 또는 의료 주제에 대한 일반적인 정보를 제공할 수 있지만 항상 자격을 갖춘 전문가에게 조언을 구해야 합니다.

관련된: ChatGPT 4의 6가지 최고의 활용법

GPT는 합법적인 의료 진단을 수행할 가능성이 있는 유망한 기술이지만, 이는 전문적이고 인증된 의료 AI 시스템의 형태가 될 것입니다. 대중에게 제공되는 범용 ChatGPT 제품이 아닙니다.

3. 결정을 내리는 데 사용하지 마십시오.

ChatGPT는 정보를 제공하고 옵션을 제안하며 프롬프트를 기반으로 의사 결정 프로세스를 시뮬레이션할 수도 있습니다. 그러나 AI는 출력의 실제 의미를 이해하지 못한다는 점을 기억하는 것이 중요합니다. 감정, 윤리 또는 개인적 가치와 같은 의사 결정과 관련된 모든 인간적 측면을 고려할 수 없습니다. 따라서 아이디어를 브레인스토밍하거나 탐색하는 데 유용한 도구가 될 수 있지만 인간은 항상 최종 결정을 내려야 합니다.

기본 ChatGPT 모델이자 무료 사용자가 사용할 수 있는 유일한 모델인 ChatGPT 3.5의 경우 특히 그렇습니다. GPT 3.5는 GPT 4보다 추리 능력이 현저히 떨어집니다!

관련된: GPT 3.5와 GPT 4: 차이점은 무엇입니까?

4. 신뢰할 수 있는 소스로 사용하지 마십시오.

ChatGPT는 방대한 양의 정보에 대해 교육을 받고 정확한 응답을 제공하는 경우가 많지만 확실한 출처는 아닙니다. 실시간으로 정보를 확인하거나 사실을 확인할 수 없습니다. 따라서 ChatGPT에서 받은 모든 정보는 특히 뉴스, 과학적 사실 또는 역사적 사건과 같은 중요한 문제와 관련하여 신뢰할 수 있고 권위 있는 출처와 교차 검증되어야 합니다.

ChatGPT는 사실처럼 들리지만 완전히 조작된 사실을 “환각”하는 경향이 있습니다. 조심하세요!

5. ChatGPT를 치료사로 사용하지 마세요

ChatGPT와 같은 AI 기술은 공감 반응을 시뮬레이션하고 일반적인 조언을 제공할 수 있지만 전문적인 정신 건강 지원을 대체할 수는 없습니다. 그들은 인간의 감정을 깊이 이해하고 처리할 수 없습니다.

AI는 인간 치료사 고유의 미묘한 이해, 정서적 공명 및 윤리적 지침을 대체할 수 없습니다. 심각한 정서적 또는 심리적 문제가 있는 경우 항상 면허가 있는 정신 건강 전문가의 도움을 받으십시오.

6. 수학에 ChatGPT를 사용하지 마세요!

언뜻 보기에 ChatGPT와 같은 AI가 수학 숙제를 도와주는 자연스러운 애플리케이션처럼 보일 수 있습니다. 그러나 ChatGPT의 장점은 수학이 아니라 언어라는 점에 유의해야 합니다. 방대한 교육 데이터에도 불구하고 복잡한 수학 연산을 정확하게 수행하거나 복잡한 문제를 해결하는 능력은 제한적입니다.


ChatGPT는 광범위한 응용 프로그램을 갖춘 인상적인 도구이지만 그 한계를 이해하는 것이 중요합니다. 이 도구를 책임감 있게 사용하면 오해의 소지가 있거나 잠재적으로 유해한 정보 소스가 아닌 유익한 도움이 됩니다.

관련된: 모든 경우에 ChatGPT 페르소나를 만드는 방법