해커는 이미 Apple의 iPhone 포토 스캐너를 속이고 있습니다.

0
216

수평선이 있는 파란색 배경의 Apple 로고

Apple의 CSAM(아동 성학대 자료) 스캐너에 대해 많은 이야기가 있었습니다. 이제 해커가 CSAM 스캐너를 속이고 가양성을 만드는 데 한 걸음 더 다가갈 수 있는 것처럼 보이기 때문에 스캐너가 다시 뉴스에 등장했습니다.

Apple의 CSAM 스캐너 문제

Reddit 사용자는 기기 내 CSAM 감지를 위한 Apple의 NeuralHash 알고리즘을 이해하기 위해 리버스 엔지니어링을 수행했습니다. 그렇게 하는 과정에서 그들은 잘못된 긍정을 생성할 수 있는 해시에서 충돌 가능성을 발견했습니다. 충돌은 두 데이터 조각이 동일한 해시 값, 체크섬, 지문 또는 암호화 다이제스트를 가질 때 발생하는 잠재적 충돌입니다.

Cory Cornelius라는 코더는 알고리즘에서 충돌을 생성했는데, 이는 동일한 해시를 생성하는 두 개의 이미지를 발견했음을 의미합니다. 이것은 이미지가 완전히 무해하더라도 아동 학대가 포함된 것으로 Apple에 플래그를 지정하는 오탐지(false positive)를 생성하는 데 사용될 수 있습니다.

확실히 쉽지는 않겠지만 CSAM 이미지가 아니더라도 해커가 CSAM 경고를 시작하는 이미지를 생성할 가능성이 있습니다.

Apple에는 가양성이 문제를 일으키지 않도록 설계된 계층이 있습니다. 예를 들어 이미지에 플래그가 지정되면 법 집행 기관에 보내기 전에 실제 사람이 검토해야 합니다. 그 지점에 도달하기 전에 해커는 NCMEC 해시 데이터베이스에 액세스하고 30개의 충돌 이미지를 만든 다음 대상의 전화에 모두 가져와야 합니다.

광고

즉, Apple의 CSAM 스캐너와 관련된 또 다른 문제입니다. 이미 엄청난 반대가 있었고 코더가 이미 리버스 엔지니어링할 수 있었다는 사실이 매우 우려스럽습니다. 충돌이 발생하는 데 몇 달이 걸리는 대신 코드가 공개된 지 몇 시간 만에 충돌이 발견되었습니다. 그것은 우려스럽다.

애플은 무엇이든 할 것인가?

시간만이 Apple이 이 상황을 어떻게 처리하는지 알려줄 것입니다. 회사는 NeuralHash 알고리즘을 사용하려는 계획을 철회할 수 있습니다. 애플의 사진 스캔 계획에 대한 신뢰가 이미 낮기 때문에 최소한 회사는 상황을 해결해야 합니다.