일본, 실제와 구분 어려운 생성 AI(인공지능) 성적(性的) 이미지 범람 골머리
스크롤 이동 상태바
일본, 실제와 구분 어려운 생성 AI(인공지능) 성적(性的) 이미지 범람 골머리
이 기사를 공유합니다
- 실재(實在)의 피해 아동과 구별 곤란, 삭제 요청이나 수사에도 지장
2일 일본 요미우리 신문 해당기사 일부 인터넷판 갈무리 

이미지 생성 인공지능(AI)으로 만들어진 것으로 보이는 아동의 성적 이미지가 일본 국내 사이트에 대량으로 유통되고 있는 문제로, 피해자가 실재(實在)하는 아동 포르노 대책에의 지장이 나오기 시작하고 있다고 일본의 요미우리신문이 2일 비중 있게 보도했다.

보도에 따르면, AI에 의한 아동의 성적(性的) 화상(sexual image)은 아동 매춘·아동 포르노 금지법의 원칙 대상 외에 인터넷상에서 확산하면 그 현실감 때문에 피해 아동이 실제로 존재재하는 이미지와 구별이 되지 않아 삭제 요청이나 수사 등이 어렵다고 신문은 전했다.

“이것이 실제로 존재하는 아동일까” ‘LINE 야후’ 등 플랫폼 사업자들로 만드는 ‘세이퍼 인터넷 협회’ 담당자가 당황한 것은 올 9월. 이 협회는 인터넷 이용자로부터의 통보 등을 기초로 아동 포르노나 불법 약물의 매매, 사기 행위 등에 관한 투고를 확인하고, 게시자 등에게 삭제를 요청하고 있으며 경찰에 신고하기도 한다고 요미우리는 전했다.

그러나 지난 9월만 해도 연락을 받은 이미지에 부자연스러운 부분이 있었고, 여러 담당자로 검증할 필요가 있었다. 결국 AI로 만들어졌을 가능성이 높다고 판단해 삭제 요청하지 않았다고 한다.

일본의 ‘아동 포르노 금지법’은 18세 미만의 성적 이미지를 제조, 공개하고 성적 호기심을 충족시킬 목적으로 소지하는 것을 금지한다. 하지만, 아동이 실재하는 것이 요건으로, AI 유래의 것은 원칙 대상 외(外)라고 한다.

음란한 이미지 등을 단속하는 형법의 음란물 배포죄는 AI가 만든 이미지도 대상으로 생각된다. 그러나 요건이 엄격하고 하반신 노출 등이 없으면 적발하지 못할 가능성이 높다. 같은 죄로 단속되는 AI 유래의 아동의 성적 이미지는 극히 일부에 머무르는 것으로 보인다.

협회의 삭제 요청은 아동 포르노 금지법 등에 근거하고 있다. 협회 사무국장은 “법의 근거 없이 AI 화상의 삭제 요청을 하면 “표현의 자유”의 제한으로 이어질 수 있다. 신중하게 판단할 필요가 있다”고 말하는 한편, “피해 아동이 실재하는 화상 삭제요청이 늦으면 인터넷에 노출되게 된다”고 우려하는 목소리가 섞여 있다.

사이트에 접속할 수 없게 하는 '블로킹'도 마찬가지다. 삭제 요청에 응하지 않는 해외 사이트를 상정, 통신 사업자에게 요청하는 것이지만, 업계 단체 “인터넷 콘텐츠 세이프티 협회” 사무국의 모모사와 하야토씨는 그렇게 할 수 없다”고 말한다.

수사에 대한 영향도 우려된다. 서일본의 한 경찰 간부는 “AI 화상이 대량으로 나돌면 실제로 피해 아동이 있는 화상이 매몰되어 버려 피해의 발각이나 적발이 늦을 수 있다”며 위기감을 보인다고 신문이 전했다.

신문은 “복수의 일본 국내 사이트에서 AI의 것으로 보이는 아동의 성적 화상이 대량으로 투고되고 있다. 해외에서도 다수가 열람하고 있다. 이러한 이미지는 구미의 주요국에서는 법규제의 대상이 되고 있으며, 규제가 느슨한 일본 국내 사이트에는 해외 애호가들이 모여 있을 우려가 있다”고 지적했다.

이미지 생성 AI의 가장 큰 특징은 문장을 입력하는 것만으로 정교한 이미지를 대량으로 단시간에 만들 수 있다는 것이다. 관동지방 50대 남성 회사원은 “하루에 1000점 이상 이미지를 만든 적도 있다”고 한다.

그 남성은 올 5월쯤부터 인터넷에서 알게 된 이미지 생성 AI의 무료 도구에 빠져들게 됐다. 아동의 성적 이미지만으로 지금까지 4000점 이상 투고. 화상의 판매도 실시해, 월수만 엔의 수입이 있다고 한다.

그 남성은 투고할 때 AI로 만든 것을 명시하고 있다. 그는 "일을 하는 사이사이에 만들 수 있고 좋은 용돈 벌이가 된다"고 말하는 한편, “넷으로 전재되어 AI로 만든 것을 숨기면 실물과 구별이 되지 않을지도 모르겠네요”라며 나쁘지 않고 말했다고 한다.

* 가짜 이미지를 간파하는 기술도 진화한다지만...

생성 AI를 둘러싼 가짜 이미지도 문제가 됐다. 그런 가운데 AI 이미지인지 여부를 알아차리는 기술 연구도 진행되고 있다.

일본 국립정보학연구소 연구팀은 “2021년 사람의 얼굴 이미지와 동영상이 AI로 만들어졌는지 여부를 판단하는 프로그램을 개발했다. 대량의 AI 화상을 학습하고, 사람의 눈으로는 모르는 미세한 특징을 검출하고, 고정밀도로 판정 가능하며, 대책에 임하는 단체나 게시자 등이 활용할 수 있도록 정비해 나가고 싶다”고 말했다.

AI 개발 기업  브라스”도 같은 프로그램을 개발. 법인이나 개인이 이용할 수 있는 서비스 제공을 위해 준비를 진행하고 있다고 한다.

한편, 판별이 가능해져도, AI 화상이 확산되면 진짜가 매몰되어, 대책에 지장이 나오는 구도는 변하지 않는다.

카이타 만치코·분쿄학원대 교수(아이의 인권)는 “AI에 의한 아동의 성적 화상은, 아이를 성적 대상으로 해도 상관없다고 하는 잘못된 생각을 넓힌다. 국제 기준에 따라, 아동 포르노 금지법 개정을 포함해 규제 논의를 진행하는 것이 중요하다고 강조했다.

이 기사를 공유합니다
관련기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
뉴타TV 포토뉴스
연재코너  
오피니언  
지역뉴스
공지사항
동영상뉴스
손상윤의 나사랑과 정의를···
  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 이종민
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 00010 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손윤희
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 뉴스타운. All rights reserved. mail to newstowncop@gmail.com
ND소프트