
Apple의 CSAM(아동 성학대 자료) 스캐너에 대해 많은 이야기가 있었습니다. 이제 해커가 CSAM 스캐너를 속이고 가양성을 만드는 데 한 걸음 더 다가갈 수 있는 것처럼 보이기 때문에 스캐너가 다시 뉴스에 등장했습니다.
Apple의 CSAM 스캐너 문제
Reddit 사용자는 기기 내 CSAM 감지를 위한 Apple의 NeuralHash 알고리즘을 이해하기 위해 리버스 엔지니어링을 수행했습니다. 그렇게 하는 과정에서 그들은 잘못된 긍정을 생성할 수 있는 해시에서 충돌 가능성을 발견했습니다. 충돌은 두 데이터 조각이 동일한 해시 값, 체크섬, 지문 또는 암호화 다이제스트를 가질 때 발생하는 잠재적 충돌입니다.
Cory Cornelius라는 코더는 알고리즘에서 충돌을 생성했는데, 이는 동일한 해시를 생성하는 두 개의 이미지를 발견했음을 의미합니다. 이것은 이미지가 완전히 무해하더라도 아동 학대가 포함된 것으로 Apple에 플래그를 지정하는 오탐지(false positive)를 생성하는 데 사용될 수 있습니다.
확실히 쉽지는 않겠지만 CSAM 이미지가 아니더라도 해커가 CSAM 경고를 시작하는 이미지를 생성할 가능성이 있습니다.
그러나 “이론적으로는 일어날 것이 거의 확실합니다”라고 말하는 것과 실제 생활에서 일어나는 것을 보는 것에는 차이가 있습니다. Apple은 위험을 알고 있었기 때문에 해시 함수를 비밀로 유지하기 위해 노력했습니다.
— 매튜 그린(@matthew_d_green) 2021년 8월 18일
Apple에는 가양성이 문제를 일으키지 않도록 설계된 계층이 있습니다. 예를 들어 이미지에 플래그가 지정되면 법 집행 기관에 보내기 전에 실제 사람이 검토해야 합니다. 그 지점에 도달하기 전에 해커는 NCMEC 해시 데이터베이스에 액세스하고 30개의 충돌 이미지를 만든 다음 대상의 전화에 모두 가져와야 합니다.
즉, Apple의 CSAM 스캐너와 관련된 또 다른 문제입니다. 이미 엄청난 반대가 있었고 코더가 이미 리버스 엔지니어링할 수 있었다는 사실이 매우 우려스럽습니다. 충돌이 발생하는 데 몇 달이 걸리는 대신 코드가 공개된 지 몇 시간 만에 충돌이 발견되었습니다. 그것은 우려스럽다.
애플은 무엇이든 할 것인가?
시간만이 Apple이 이 상황을 어떻게 처리하는지 알려줄 것입니다. 회사는 NeuralHash 알고리즘을 사용하려는 계획을 철회할 수 있습니다. 애플의 사진 스캔 계획에 대한 신뢰가 이미 낮기 때문에 최소한 회사는 상황을 해결해야 합니다.








