by Trey Ratcliff. https://www.flickr.com/photos/stuckincustoms/


인터넷은 아동포르노 등의 미성년자를 대상으로 한 성적 소재(child sexual abuse material : CSAM)가 많이 존재하고 있습니다. CSAM을 인터넷에서 제거하는 작업은 인간의 손으로 이루어지고 있습니다만, 끝없이 등장하는 CSAM에 대처할 수 없는 것이 현실입니다. 그래서 Google은 CSAM에 마주하는 인간을 도울 수 있도록, AI를 활용한 CSAM 판정도구 'Content Safety API'를 개발했습니다.

Using AI to help organizations detect and report child sexual abuse material online
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/

Using AI to help organizations detect and report child sexual abuse material online

blog.google


불법 아동포르노가 인터넷상에서 표시되는 것을 방지하기 위해 Google과 같은 콘텐츠제공자는 감시활동을 실시하고 있습니다. 그러나 특정 콘텐츠를 인터넷에서 삭제하는 행위는 '표현의 자유'에 대한 침해가 될 수 있기 때문에 컨텐츠의 불법성에 대해서는 인간에 의한 신중한 판단을 피할 수 없습니다.


Tech Confessional: The Googler Who Looked At The Worst Of The Internet
http://www.buzzfeed.com/reyhan/tech-confessional-the-googler-who-looks-at-the-wo

Tech Confessional: The Googler Who Looked At The Worst Of The Internet

After a year spent looking at the dark underside of the Internet — including bestiality, necrophilia and child pornography — this Google contractor wasn't even hired full-time.

www.buzzfeednews.com


CSAM을 지속적으로 모니터하고 있는 사람들은 살아있는 인간이며, 제거활동은 정신적으로 힘든 것으로 알려져 있습니다.

Workers on Porn Detail Sue Microsoft for Injuries – Courthouse News Service
http://courthousenews.com/workers-on-porn-detail-sue-microsoft-for-injuries/


Microsoft Anti-Porn Workers Sue Over PTSD - The Daily Beast
http://www.thedailybeast.com/articles/2017/01/11/microsoft-anti-porn-workers-sue-over-ptsd.html

Microsoft Anti-Porn Workers Sue Over PTSD

Ex-employees of the company’s online safety team say they had to watch horrific online videos of child abuse, bestiality, and murders—and that Microsoft ignored their PTSD.

www.thedailybeast.com


또 기존의 CSAM의 감시활동에 도입된 도구는 이미 보고된 불법 CSAM의 해시값과의 일치에 의존하는 재업로드를 예방하기 위한 것입니다. 따라서 제한된 인원으로 새롭게 등장하는 CSAM에 대한 대처가 늦어지고 있는 실정입니다.

이에 Google은 딥러닝을 활용한 화상 · 영상 인식기술을 통해 콘텐츠를 자동으로 판단하여 CSAM을 판별하는 'Content Safety API'를 개발했습니다. Content Safety API는 무수히 많은 인터넷 콘텐츠를 AI로 자동판별하고 CSAM이 의심되고 육안에 의한 확인이 필요한 것을 감지할 수 있어 검색된 내용을 필요성과 시급성에 따라 정렬합니다. 인터넷을 감시하는 인간은 중요도 순으로 정렬된 CSAM부터 삭제할지 여부의 판단이 가능해 작업을 간소화할 수 있습니다.

Google에 따르면 Content Safety API를 도입한 경우에는 기존보다 8배나 많은 CSAM을 발견하는 데 성공했다고 밝혀, 적은 인원으로도 작업을 효율적이고 신속하게 실시할 수 있게 합니다.


CSAM 제거활동을 실시하는 Internet Watch Foundation의 수지 하그리브스 대표는 "지금까지 발견할 수 없었던 불법 콘텐츠를 감지해내 전문가가 더 큰 스케일로 판단할 수 있는 자료를 제공합니다. 범죄자의 불법 업로드 행위의 추적을 돕는 인공지능 도구가 개발된 것을 기쁘게 생각한다"며 AI를 활용한 CSAM 대항 도구를 환영합니다.

Posted by 말총머리
,