
인터넷은 항상 잘못된 정보로 가득 차 있었지만 최소한 약간의 노력으로 사실과 허구를 구분하는 것은 어렵지 않았습니다. 정교한 인공 지능 도구의 등장으로 이러한 상황이 완전히 바뀌었고 회의론이 그 어느 때보다 중요해졌습니다.
딥페이크
“딥페이크”라는 단어에는 개별 목표를 달성하기 위해 딥 러닝 신경망의 사용을 공유하는 전체 기술 제품군이 포함됩니다. 딥페이크(Deepfakes)는 동영상에서 누군가의 얼굴을 바꾸는 것이 쉬워지면서 대중의 주목을 받았습니다. 그래서 누군가가 배우들의 얼굴을 미국 대통령의 얼굴로 바꾸거나 대통령의 입만 바꿔서 일어나지 않은 일을 말하게 할 수 있다.
한동안은 사람이 음성을 가장해야 하지만 딥페이크 기술도 음성을 복제할 수 있습니다. 이제 Deepfake 기술을 실시간으로 사용할 수 있으므로 해커 또는 기타 악의적인 행위자가 실시간 화상 통화 또는 방송에서 누군가를 가장할 수 있는 가능성이 열립니다. 어느 인터넷에서 보는 비디오 “증거”는 확인될 때까지 잠재적인 딥페이크로 취급되어야 합니다.
AI 이미지 생성
AI 이미지 생성기는 예술가로 생계를 유지하는 사람들에게 미치는 모든 의미와 상업 예술가가 대체될 위험에 처해 있는지 여부에 대해 예술가 커뮤니티에서 소란을 일으켰습니다. 그다지 많은 논쟁을 일으키지 않는 것은 이 기술 덕분에 잘못된 정보의 가능성입니다.
AI 이미지 생성 시스템은 텍스트 기반 프롬프트, 예제 이미지 및 조작을 위한 원본 이미지를 사용하여 옷 전체에 사실적인 이미지를 생성할 수 있습니다. 예를 들어 원본 이미지의 특정 부분을 지운 다음 “인페인팅”이라는 기술을 사용하여 AI가 이미지의 지워진 부분을 원하는 것으로 대체하도록 할 수 있습니다. Stable Diffusion과 같은 소프트웨어를 사용하여 자신의 PC에서 이미지를 쉽게 생성할 수 있습니다.
누군가가 장난감 대신 실제 총을 들고 있는 것처럼 보이게 만들고 싶다면 AI에게는 사소한 일입니다. 유명인의 스캔들 사진을 만들고 싶습니까? AI 이미지 생성(및 그 문제에 대한 딥페이크)은 바로 이런 식으로 남용될 수 있습니다. 존재하지 않는 사람의 사실적인 얼굴을 생성할 수도 있습니다.
AI 영상 생성
AI 이미지 생성과 딥페이크는 시작에 불과합니다. Meta(Facebook의 모회사)는 이미 AI 비디오 생성을 시연했으며 시간이 지남에 따라 몇 초 분량의 푸티지가 생성될 수 있지만 비디오의 길이와 사용자가 비디오에 있는 내용을 제어할 수 있는 정도가 예상됩니다. 기하급수적으로 확장합니다.
지금으로서는 AI가 Bigfoot 또는 Nessie의 거친 클립을 생성하도록 하는 것은 누구도 의상을 입지 않거나 카메라와 작은 나무 모델을 들고 스코틀랜드로 날아가도록 하는 것이 완전히 가능합니다. AI 비디오 생성이 가능하기 전에 비디오는 항상 조작하기 쉬웠습니다. 그러나 지금 당신은 당신이 보는 어떤 비디오도 전혀 믿을 수 없습니다.
AI 채팅 봇
고객 지원팀과 채팅을 하면 사람이 아니라 기계와 대화하는 것입니다. AI 기술(및 기존 프로그래밍 방법)은 기계가 우리와 정교한 대화를 나누기에 충분합니다. 특히 보증 교체를 받거나 기술적인 질문이 있는 경우와 같이 좁은 영역에 있는 경우에는 더욱 그렇습니다.
음성 인식 및 합성도 고급 상태이며 Google Duplex와 같은 시스템에 대한 데모를 보면 우리가 어디로 가고 있는지 실감할 수 있습니다. AI 기반 봇을 소셜 미디어 플랫폼에 출시하면 실제 결과를 초래하는 합동 잘못된 정보 캠페인의 가능성이 높아집니다.
공정하게 말하면 Twitter와 같은 소셜 미디어 플랫폼에는 항상 봇 문제가 있었지만 일반적으로 이러한 봇은 정교하지 않았습니다. 이제 소셜 미디어에서 아무나 속일 수 있는 화장된 사람을 만들 수 있다고 생각할 수 있습니다. 그들은 이 목록에 있는 다른 기술을 사용하여 이미지, 오디오 및 비디오를 생성하여 실제임을 “증명”할 수도 있습니다.
AI 작가
우리는 세계에 대해 배우고 전 세계에서 무슨 일이 일어나고 있는지 알아보기 위해 인터넷에 접속합니다. 인간 작가(그게 바로 우리!)가 그 정보의 핵심 소스이지만 AI 작가는 비슷한 품질의 작품을 낼 만큼 충분히 능숙해지고 있습니다.
AI 아티스트와 마찬가지로 그러한 소프트웨어가 생계를 위해 글을 쓰는 사람들을 대체할지 여부에 대한 논쟁이 있지만 다시 한 번 대부분 무시되는 잘못된 정보 각도가 있습니다.
독창적인 얼굴을 만들고, 소셜 미디어 페르소나 봇을 만들고, 화장한 사람이 등장하는 비디오와 음성을 만들 수 있다면 하룻밤 사이에 전체 출판물을 연상시키는 것이 가능해집니다. 의심스러운 “뉴스” 웹사이트는 이미 많은 인터넷 사용자에게 설득력 있는 잘못된 정보의 원천이지만 이와 같은 AI 기술은 이 문제를 더욱 강화할 수 있습니다.
탐지의 문제
이러한 기술은 남용에 대한 새로운 길을 열어주기 때문에 문제가 될 뿐만 아니라 위조를 탐지하는 것이 어려울 수 있기 때문에 문제이기도 합니다. 딥페이크는 이미 전문가조차 무엇이 가짜이고 무엇이 가짜인지 구별하기 어려운 지경에 이르렀습니다. 이것이 그들이 불로 불을 피우고 AI 기술을 사용하여 인간의 눈에는 보이지 않는 징후를 찾아 생성되거나 조작된 이미지를 감지하는 이유입니다.
이것은 잠시 동안 효과가 있지만, 아이러니하게도 가짜 콘텐츠를 만드는 기술을 더 높은 수준으로 밀어붙일 수 있는 의도하지 않은 AI 군비 경쟁을 일으킬 수도 있습니다. 인간으로서 우리를 위한 유일한 건전한 전략은 투명한 프로세스와 정책을 통해 검증된 출처에서 나온 것이 아닌 한 인터넷에서 보는 모든 것을 달리 입증될 때까지 가짜로 취급해야 한다고 가정하는 것입니다. (당신의 음모론자인 삼촌이 그가 당신에게 계속 보내는 UFO 영상이 진짜가 아니라고 믿을지 의심스럽긴 하지만.)








