아이폰, 아동포르노 자동식별…사법당국에  고발

애플, 이미지 파일 탐지…일각에선 사생활 침해 우려도 제기

애플이 다음 달부터 미국에서 아동 음란물 이미지가 아이클라우드 스토리지에 완전하게 업로드되기 전에 식별해 사법당국에 고발하는 시스템을 시행할 것이라고 밝혔다.

5일 로이터통신에 따르면 애플은 개인의 아이폰에서 아동 음란물 이미지가 업로드되는 것이 탐지되면 사용자의 인적사항을 검토해 이를 사법당국에 고발할 것이라고 밝혔다. 식별은 이미지에 대해서만 적용되고 동영상은 대상이 아니다.

애플은 기존의 아동 음란물 이미지 식별에서의 판단 오류를 1조분의 1로 줄이기 위해 이 새로운 시스템을 고안했다고 설명했다.

애플은 이 시스템을 통해 아동 음란물 유통 방지를 위한 사법당국의 요청과 자사 브랜드의 핵심인 사생활 보호 관행이라는 두 가지 과제를 동시에 해결하기 위해 노력하고 있다.

애플은 현재 알파벳의 구글, 페이스북, 마이크로소프트(MS)를 포함한 대부분의 다른 주요 기술 제공업체들과 함께 기존에 알려진 아동 음란물 이미지 데이터베이스와 비교해서 동일한 이미지를 찾아내는 검사를 실행하고 있다.

존 클라크 아동실종취약센터(NCMIC) 대표는 성명에서 “아이폰 사용자가 많은 가운데 이 새로운 안전 대책은 온라인에서 유인되고 끔찍한 이미지가 유포되는 아동들의 생명을 구할 잠재력을 가지고 있다”며 “사생활 보호와 아동 보호는 공존할 수 있다”고 말했다.

애플의 아동 음란물 방지 시스템은 다음과 같이 작동한다. 사법당국은 알려진 아동 음란물 이미지의 데이터베이스를 유지하고 이 이미지들을 ‘해시'(hash) 함수로 변환한다. 이는 이미지를 식별만 하고 재구성하는 데는 사용할 수 없는 숫자 코드다.

애플은 편집된 이미지와 유사해도 이를 포착할 수 있는 ‘뉴럴해시'(NeuralHash)라는 기술을 사용해 자체적으로 데이터베이스를 구현한다. 이 데이터베이스는 아이폰에 저장된다. 사용자가 애플의 아이클라우드 스토리지에 이미지를 업로드하기 시작하면 아이폰이 업로드될 이미지의 해시를 만들어 데이터베이스와 비교한다.

애플은 계정을 사법 당국에 신고하기 전에 실시되는 인적사항 검토는 계정을 정지하기 전 아동 음란물 이미지와 일치하는 내용이 진짜인지 확인하기 위한 것이라고 설명했다. 식별 대상은 클라우드로 업로드가 시도되는 이미지이며, 단지 아이폰에 저장만 돼 있는 이미지는 식별 대상이 아니다고 덧붙였다.

애플은 자신의 계정이 부적절하게 정지됐다고 생각하는 사용자들은 계정 복구를 요청할 수 있다고 말했다.

파이낸셜타임스(FT)는 앞서 이 프로그램의 일부 측면을 보도하며 애플이 자사 서버에 도착한 후 이미지를 확인하는 것이 아니라 업로드가 마무리되기 전에 사용자의 휴대폰에 저장된 사진을 확인하는 시스템이라고 설명했다.

이에 대해 일부 개인정보보호 및 보안 전문가들은 트위터를 통해 애플의 이 같은 시스템은 결국 금지된 콘텐츠나 정치적 발언을 걸러내기 위해 사용자들의 전화기를 보다 일반적으로 스캔하는 방식으로 확대될 수 있다는 우려를 나타냈다.

매튜 그린 존스홉킨스대 보안연구원은 기자회견에서 “애플의 장기적인 계획이 무엇이든 간에 사용자의 휴대폰에서 금지된 콘텐츠를 스캔하는 시스템을 구축하는 것이 안전하다는 신호를 보낸 것”이라고 밝혔다.

그는 “애플의 실행이 옳은 것인지 그른 것인지는 중요하지 않다”며 “이는 사생활 보호의 댐을 무너뜨릴 것이고, 정부는 모든 사용자에 대한 감시를 요구할 것”이라고 강조했다.

© 뉴스1 DB 김일환 디자이너