일본정부는 선진 7개국(G7)이 생성AI(인공지능)의 개발 등을 둘러싼 ‘국제행동규범’에서 합의한 것을 근거로, 생성AI의 개발자나 제공자에게 규범 준수를 촉구하기 위해 새로운 리스크 경감책의 도입을 검토한다는 방침이라고 요미우리신문이 7일 보도했다.
제3자에 의한 인증제도의 창설과 위험이 높다고 본 업종·기관에서의 규제 강화 등이 핵심이다.
일본 정부는 오는 7일 열리는 유식자회의 ‘AI전략회의’에서 리스크 경감대책 구체안 등을 보여줄 방침이다.
개발자에게 “리스크(위험) 저감 조치 등의 이행과 투명성 향상을 위한 정보의 공개”로 이어지는 구조로서, 제 3기관이 인증하는 제도의 창설과 외부 감사의 실시 등을 검토한다는 방침이다. 정부와 AI 개발자의 정기적인 의견교환의 장을 마련하는 것도 상정하고 있다.
제공자에 관해서는, “리스크가 높은 분야”로 ▶ 정부 ▶금융 ▶ 에너지 ▶ 운수 ▶ 교통 ▶ 전기통신 ▶ 방송 ▶ 의료를 예시했다. 이 8 개 분야에서는 추가 규칙의 책정 등 서비스를 제공할 때의 규제를 강화하는 방향으로 조정을 진행시킨다는 것이다.
“리스크가 낮은 분야”에서는 AI 운용에 관한 “거버넌스 정책” 책정 등을 통해 정보공개를 요구해 나갈 생각이다.
일본 정부는 해외 도입 사례 등도 조사, 올해 말까지 이러한 리스크 경감책의 구체화를 추진하는 단계를 상정하고 있다.
일본은 올해의 G7 의장국으로서 생성 AI를 둘러싼 과제를 협의하는 “히로시마 AI 프로세스”를 주도, 10월 말에는 G7로서 국제 행동 규범을 내세웠다. “생성 AI에 의한 리스크에의 적절한 대응”이나 “AI를 식별하는 기술의 개발·도입” 등이 포함되어 있다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV