감지할 수 없는 딥페이크를 처리하는 방법

0
340
그리드 패턴으로 표시된 일련의 절차 생성 면.
meyer_solutions/Shutterstock.com

Deepfakes는 사람의 목소리와 외모를 복제하는 것을 가능하게 합니다. 딥페이크 제작자는 복제본이 거의 모든 것을 말하거나 할 수 있습니다. 설상가상으로 딥페이크를 식별하는 것이 거의 불가능해지고 있습니다. 어떻게 대처할 수 있습니까?

간단히 말해서 딥페이크

Deepfakes는 인공 신경망을 사용하는 특정 유형의 기계 학습 방법인 딥 러닝 기술의 이름을 따서 명명되었습니다. 딥 러닝은 “머신 비전”이 ​​작동하는 방식의 중요한 부분입니다. 그것은 컴퓨터 시스템이 예를 들어 물체를 인식할 수 있게 하는 인공 지능 분야입니다. 머신 비전 기술은 자율 주행 자동차에서 Snapchat 필터에 이르기까지 모든 것을 가능하게 합니다.

딥페이크는 이 기술을 사용하여 비디오에서 한 사람의 얼굴을 다른 사람으로 바꾸는 것입니다. 이제 음성에도 딥페이크 기술을 적용할 수 있어 영상 속 배우의 얼굴과 목소리를 모두 다른 사람으로 바꿀 수 있다.

식별하기 쉬웠던 딥페이크

박물관에서 미셸과 버락 오바마의 밀랍 복제품.
니콤마엘라오 프로덕션/Shutterstock.com

초창기에는 딥페이크를 식별하는 것이 쉽지 않았습니다. 유명인의 밀랍 인형처럼 누가 봐도 뭔가 이상하다는 것을 느낄 수 있었습니다. 시간이 지남에 따라 머신러닝 알고리즘은 조금씩 개선되었습니다.

오늘날 고품질 딥페이크는 일반 시청자가 구별할 수 없을 만큼 충분히 훌륭합니다. 특히 소셜 미디어 비디오 공유의 저충실도 특성으로 인해 비디오가 다소 가려지는 경우에는 더욱 그렇습니다. 전문가라도 눈으로 실제 영상과 최고의 딥페이크를 구별하는 데 어려움을 겪을 수 있습니다. 이는 이를 감지하기 위해 새로운 도구를 개발해야 함을 의미합니다.

AI를 사용하여 딥페이크 탐지

불로 불과 싸우는 실제 사례에서 연구원들은 인간이 감지할 수 없는 경우에도 딥페이크 비디오를 감지할 수 있는 자체 AI 소프트웨어를 고안했습니다. MIT의 똑똑한 사람들은 이러한 비디오를 감지할 수 있는 방법을 보여주기 위해 Detect Fakes 프로젝트를 만들었습니다.

따라서 이러한 딥페이크 비디오를 더 이상 눈으로 볼 수 없더라도 작업을 수행할 수 있는 소프트웨어 도구가 있다는 사실에 안심할 수 있습니다. 다운로드를 위해 딥페이크를 감지한다고 주장하는 앱이 이미 있습니다. 딥웨어가 한 가지 예이며 더 많은 딥페이크 탐지에 대한 필요성이 증가함에 따라 더 많은 것들이 있을 것이라고 확신합니다.

그래서, 문제가 해결되었습니까? 좀 빠지는! 딥페이크를 생성하는 기술은 이제 이를 탐지하는 기술과 경쟁하고 있습니다. 딥페이크가 너무 좋아져서 최고의 AI 탐지 알고리즘이라도 비디오가 위조되었는지 아닌지에 대해 확신하지 못하는 시점이 올 수 있습니다. 우리는 아직 거기에 있지 않지만 단순히 웹을 탐색하는 일반 사용자에게는 문제가 되기 위해 딥페이크 발전의 그 지점에 있을 필요가 없을 것입니다.

Deepfakes의 세계를 처리하는 방법

예를 들어 카운티의 대통령에 대한 비디오가 진짜인지 확실하게 말할 수 없다면 어떻게 속지 않을 수 있습니까?

문제는 단일 정보 소스를 유일한 소스로 사용하는 것은 결코 좋은 생각이 아니라는 것입니다. 중요한 것에 관한 것이라면 동일한 정보를 보고하지만 잠재적인 가짜 자료가 아닌 여러 독립 출처를 확인해야 합니다.

딥페이크가 없어도 인터넷 사용자가 정부 정책, 건강 또는 세계 이벤트와 같은 주제 영역과 관련된 중요한 유형의 정보를 중지하고 확인하는 것이 이미 중요합니다. 모든 것을 확증하는 것은 분명히 불가능하지만 중요한 일에 관해서는 노력할 가치가 있습니다.

비디오가 진짜인지 거의 100% 확신하지 않는 한 비디오를 전달하지 않는 것이 특히 중요합니다. 딥페이크는 무비판적으로 공유되기 때문에 문제일 뿐입니다. 당신은 그 바이러스 성 사슬의 일부를 깨는 사람이 될 수 있습니다. 노력이 덜 든다 ~ 아니다 결국 공유하는 것보다 잠재적으로 위조된 비디오를 함께 보내는 것입니다.

또한 비디오를 의심하기 위해 딥페이크 탐지 AI의 힘이 필요하지 않습니다. 영상이 터무니없을수록 가짜일 가능성이 커집니다. NASA 과학자가 달 착륙을 조작했다고 말하는 동영상이나 그의 상사가 도마뱀이라고 말하는 동영상을 본다면 즉시 적신호를 켜야 합니다.

아무도 믿지 않습니까?

노트북과 주석 호일 모자와 함께 책상에 앉아 젊은 남자.
Patrick Daxenbichler/Shutterstock.com

비디오에서 보거나 듣는 모든 것이 가짜일 수 있고 어떻게든 당신을 속이거나 조종하기 위한 것일 수 있다는 완전히 편집증적인 생각은 무서운 생각입니다. 그것은 또한 아마도 건강한 생활 방식이 아닐 것입니다! 우리는 당신이 그러한 마음 상태에 있어야 한다고 제안하는 것이 아니라 비디오 또는 오디오 증거가 얼마나 신뢰할 수 있는지 다시 생각해야 한다고 제안합니다.

Deepfake 기술은 미디어를 확인하는 새로운 방법이 필요함을 의미합니다. 예를 들어 어떤 변경 사항도 숨길 수 없도록 비디오에 워터마크를 표시하는 새로운 방법을 연구하는 사람들이 있습니다. 그러나 인터넷의 일반 일반 사용자로서 당신이 할 수 있는 최선은 회의론적인 편에서 실수하는 것입니다. 비디오가 주제를 직접 인터뷰한 기자와 같은 주요 출처에 의해 확증될 때까지 완전히 변경되었을 수 있다고 가정합니다.

아마도 가장 중요한 것은 딥페이크 기술이 현재 또는 가까운 미래에 얼마나 좋은지 단순히 알고 있어야 한다는 것입니다. 이제 이 기사의 끝 부분에 도달했으므로 확실히 그렇습니다.