“딥 페이크”얼굴을 바꾼 비디오를 찾는 방법

0
703

최근 Reddit은 사람들이“딥 페이크”라는 기계 학습 도구를 사용하여 비디오에서 한 사람의 얼굴을 다른 사람의 얼굴로 자동 교체하는 하위 레딧으로 뉴스를 다시 만들고 있습니다. 분명히 이것은 인터넷이기 때문에 사람들은 가짜 유명인 포르노와 임의의 영화에 Nicolas Cage를 삽입하는 두 가지 용도로 인터넷을 사용하고 있습니다.

사진에서 누군가의 얼굴을 바꾸는 것은 항상 비교적 쉬운 일이지만, 비디오에서 누군가의 얼굴을 바꾸는 것은 시간이 많이 걸리고 어려웠습니다. 지금까지는 주로 배우의 얼굴이 스턴트 더블로 바뀌는 예산이 큰 할리우드 영화를 위해 VFX 스튜디오에서 주로 수행되었습니다. 그러나 이제 Deep Fake를 사용하면 컴퓨터를 가진 모든 사람이 빠르고 자동으로 작업을 수행 할 수 있습니다.

더 진행하기 전에 Deep Fake가 어떻게 보이는지 알아야합니다. 아래의 SFW 비디오에서 주로 Nic Cage와 관련된 다른 유명인 얼굴 스왑을 편집하십시오.

(내장) https://www.youtube.com/watch?v=LF893Su8rlY (/ embed)

Deep Fake 소프트웨어는 기계 학습을 사용하여 작동합니다. 먼저 대상 얼굴 훈련을 받았습니다. 왜곡 된 대상 이미지는 알고리즘을 통해 실행되며 변경되지 않은 대상면과 비슷하게 수정하는 방법을 학습합니다. 그런 다음 알고리즘에 다른 사람의 이미지가 제공되면 대상의 이미지가 왜곡 된 것으로 가정하고 수정하려고합니다. 비디오를 얻기 위해 Deep Fake 소프트웨어는 모든 프레임에서 개별적으로 작동합니다.

Deep Fakes가 주로 배우와 관련이있는 이유는 다른 각도에서 사용할 수있는 장면이 많기 때문에 훈련이 더욱 효과적이기 때문입니다 (Nicolas Cage는 IMDB에서 91 개의 크레딧을 보유하고 있음). 그러나 사람들이 온라인에 게시하는 사진 및 비디오의 양과 알고리즘을 훈련시키기 위해 실제로 500 개 정도의 이미지 만 필요하다는 점을 감안할 때 평범한 사람들도 타겟팅 할 수없는 이유는 없지만 성공할 수는 없습니다.

깊은 가짜를 발견하는 방법

현재 Deep Fakes는 꽤 쉽게 발견 할 수 있지만 기술이 발전함에 따라 점점 어려워 질 것입니다. 다음은 경품 중 일부입니다.

이상한 얼굴. 딥 페이크가 많으면 얼굴이 이상하게 보입니다. 기능이 완벽하게 정렬되지 않고 아래 이미지와 같이 약간 왁스처럼 보입니다. 다른 모든 것이 정상인 것처럼 보이지만 얼굴이 이상하게 보인다면 아마도 가짜 일 수 있습니다.

꺼질 것 같은. 잘못된 Deep Fake 비디오의 일반적인 특징은 얼굴이 깜박 거리고 원래 기능이 때때로 튀어 나오는 것입니다. 일반적으로 얼굴의 가장자리 또는 무언가가 앞을 지나갈 때 더 분명합니다. 이상한 깜박임이 발생하면 딥 페이크를보고있는 것입니다.

다른 몸. 딥 페이크는 페이스 스왑입니다. 대부분의 사람들은 좋은 신체 매치를 시도하지만 항상 가능한 것은 아닙니다. 사람이 눈에 띄게 더 무겁고, 가벼우 며, 키가 크거나, 짧거나, 문신이 있거나 실제 문신이없는 경우 (또는 실제 문신이없는 경우) 가짜 일 가능성이 높습니다. 아래에서 패트릭 스튜어트의 얼굴이 J.K로 바뀐 실제 사례를 볼 수 있습니다. 영화 Whiplash의 한 장면에서 시몬스. 시몬스는 스튜어트보다 훨씬 작기 때문에 이상하게 보입니다.

짧은 클립. 현재 Deep Fake 소프트웨어가 완벽하게 작동하고 거의 구별 할 수없는 얼굴 스왑을 생성하더라도 실제로는 짧은 시간 동안 만 수행 할 수 있습니다. 머지 않아 위의 문제 중 하나가 발생하기 시작합니다. 그렇기 때문에 사람들이 공유하는 대부분의 Deep Fake 클립은 몇 초 밖에 걸리지 않으며 나머지 영상은 사용할 수 없습니다. 유명인이 아주 짧은 일을한다고해서 너무 짧은 이유가 없다면 딥 페이크라는 단서가됩니다.

소리가 나지 않거나 입술이 맞지 않습니다. Deep Fake 소프트웨어는 얼굴 특징 만 조정합니다. 마술처럼 한 사람이 다른 사람처럼 들리게하지는 않습니다. 클립에 소리가없고 소리가 나지 않을 이유가 없다면 딥 페이크를보고있는 또 다른 단서입니다. 마찬가지로 소리가 있더라도 말하는 단어가 움직이는 입술과 정확하게 일치하지 않으면 (또는 아래 클립에서 사람이 말을하는 동안 입술이 이상하게 보일 경우) 딥 페이크가있을 수 있습니다.

믿을 수없는 클립. 이런 종류의 말은 말할 필요도 없지만 진정으로 믿을 수없는 클립을 보게되면 실제로 그것을 믿을 수 없을 가능성이 높습니다. 니콜라스 케이지는 마블 영화에서 로키로 출연 한 적이 없습니다. 그래도 멋지다.

의심스러운 출처. 가짜 사진과 마찬가지로 비디오의 출처는 종종 그 진위에 대한 큰 단서입니다. New York Times에서 스토리를 진행하고 있다면 Reddit의 임의 구석에서 발견 한 것이 사실 일 가능성이 훨씬 큽니다.


당분간 Deep Fakes는 주요 문제보다 끔찍한 호기심에 가깝습니다. 결과를 쉽게 파악할 수 있으며 수행중인 작업을 묵과하는 것은 불가능하지만 아직 아무도 딥 페이크를 진정한 비디오로 전달하려고하지 않습니다.

그러나 기술이 발전함에 따라 훨씬 더 큰 문제가 될 수 있습니다. 예를 들어, 미국에 대한 전쟁을 선포하는 김정은의 가짜 영상을 설득하면 큰 패닉이 발생할 수 있습니다.