
신뢰할 수 있는 보고서에 따르면 Apple은 미국에서 iPhone에 아동 학대 이미지가 있는지 지역 사진을 자동으로 스캔하는 소프트웨어를 설치할 계획입니다. Apple은 적어도 처음에는 이 기술을 사용하여 iCloud에 업로드된 사진만 스캔할 것이라고 합니다.
업데이트: Apple은 자세한 문서에서 이 보고의 대부분을 확인했습니다.
애플은 무엇을 하고 있는가?
애플의 계획에 대한 보고서는 파이낸셜 타임즈와 존스 홉킨스 대학교 교수가 작성한 것입니다. 매튜 그린, 둘 다 일반적으로 신뢰할 수 있는 출처입니다. 물론 Apple이 이를 확인하기 전까지는 이런 일이 발생하지 않을 가능성이 항상 있습니다. 애플은 이번 주 초 일부 미국 학자에게 이 계획을 시연한 것으로 알려졌다.
나는 Apple이 내일 CSAM 스캐닝을 위한 클라이언트 측 도구를 출시할 것이라는 여러 사람들로부터 독립적인 확인을 받았습니다. 이것은 정말 나쁜 생각입니다.
— 매튜 그린(@matthew_d_green) 2021년 8월 4일
보도에 따르면 애플은 미국 아이폰에서 아동 학대 이미지를 스캔하기 위해 “뉴럴매치(neuralMatch)”라는 시스템을 사용할 것이라고 한다.
기본적으로 자동화된 시스템은 불법 이미지가 감지된 경우 검토자 팀에 경고합니다. 거기에서 팀 구성원이 이미지를 검토하고 법 집행 기관에 연락합니다.
기술적으로 이것은 새로운 것이 아닙니다. 클라우드 기반 사진 저장 시스템과 소셜 네트워크는 이미 이러한 스캔을 수행하고 있습니다. 여기서 차이점은 Apple이 장치 수준에서 수행하고 있다는 것입니다. Matthew Green에 따르면 처음에는 iCloud에 업로드된 사진만 스캔하지만 사용자의 휴대전화에서 해당 스캔을 수행합니다. “초기”는 어떤 시점에서 모든 사진을 로컬로 스캔하는 데 매우 잘 사용될 수 있기 때문에 여기서 핵심 단어입니다.
이것은 스캔이 전화로 수행되고 일치하는 경우에만 다시 전송되기 때문에 시스템을 덜 침습적으로 만들기로 되어 있습니다. 즉, 업로드하는 모든 사진이 낯선 사람의 눈에 노출되는 것은 아닙니다.
브리핑에 참석한 사람들에 따르면 iCloud에 업로드되는 모든 사진에는 의심스러운지 여부를 알려주는 “안전 바우처”가 제공됩니다. 일정량의 사진이 용의자로 표시되면 Apple은 해당 사진의 암호를 해독하고 아동 학대와 관련된 것이 발견되면 해당 사진을 당국에 보냅니다.
시스템은 아동 학대 이미지와 다른 이미지를 어떻게 구별합니까? 보고서에 따르면 미국의 비영리 국립 실종 착취 아동 센터(National Center for Missing and Exploited Children)에서 수집한 200,000개의 성 학대 이미지에 대해 테스트를 거쳤습니다.
이미지는 해싱을 통해 일련의 숫자로 변환된 다음 데이터베이스의 사진과 비교됩니다.
이 모든 것이 밝혀진 후, 애플은 무슨 일이 일어나고 있는지 파이낸셜 타임즈에 언급하는 것을 거부했습니다. 그러나 우리는 이 움직임에 대한 메시지가 손에 잡힐 수 없게 되기 전에 회사가 공식 성명을 작업 중이라고 가정합니다.
이것은 위험한 전례를 만듭니다
이것이 얼마나 무서운 것인지 말할 필요는 없을 것입니다. 아동학대를 하는 사람들은 적발되어 처벌되어야 합니다. 그러나 이와 같은 것이 훨씬 더 침략적인 목적으로 사용될 수 있다는 것은 쉽게 알 수 있습니다.
Mac, Windows PC 및 Android 휴대폰과 같은 다른 플랫폼에서도 유사한 기술이 출시될 예정입니까? 중국과 같은 국가에서 이를 사용하여 시민들의 휴대전화에서 파괴적인 이미지를 감지할 수 있습니까? 그것이 널리 받아들여진다면, 저작권 업계가 몇 년 안에 이를 사용하여 불법 복제된 콘텐츠를 검색할 수 있을까요?
그리고 광고한 대로 작동하더라도 무고한 사람들이 총격전에 휩싸이게 될까요?
바라건대, 이것은 보이는 것만큼 중요하지 않습니다.








