EU 인공지능(AI) 리스크 4단계 분류와 문제점
EU 인공지능(AI) 리스크 4단계 분류와 문제점
  • 김상욱 대기자
  • 승인 2021.04.23 21:02
  • 댓글 0
이 기사를 공유합니다

- 산업계 부담 늘어나
규제안에서는 인간의 생명이나 기본적인 권리에 미치는 영향의 크기를 기초로, AI가 가져오는 리스크를 ① 금지 ② 고(高) 리스크 ③ 한정적인 리스크 ④ 최소한의 리스크라는 4 단계로 분류했다.
규제안에서는 인간의 생명이나 기본적인 권리에 미치는 영향의 크기를 기초로, AI가 가져오는 리스크를 ① 금지 ② 고(高) 리스크 ③ 한정적인 리스크 ④ 최소한의 리스크라는 4 단계로 분류했다.

유럽연합(EU)이 인공지능(AI) 이용을 제한하는 포괄적인 규제 방안을 발표했다.

개인의 자유나 권리의 보호를 중시해, 리스크(risk)가 높은 인공지능의 사용에는 사전 심사를 요구하고 있다. 이를 위반하면 거액의 벌금이 부과되게 되어, 산업계에서는 벌써 부담증가에 경계심이 일고 있다.

새로운 AI의 룰(rule)'합리화'될 필요가 있다" 유럽연합(EU)의 유럽위원회가 규제안을 공표한 21(현지시간), IT(정보기술) 관련 기업 등으로 구성하는 단체 디지털 유럽(Digital Europe)"이 웹 사이트에서 우려의 소리를 높였다.

디지털 유럽에는 독일 지멘스나 미국의 구글 같은 유럽과 미국 기업, 일본의 히타치 제작소 등 80개사 이상이 이름을 올렸다. 규제안의 공표 전부터 “(개인 정보 보호의 엄격화를 요구하는) 일반데이터보호규칙(GDPR, General Data Protection Regulation)으로부터 교훈을 배웠는가라며, 원가(cost) 부담의 증가 등에 대해 경계감을 나타내고 있었다.

GDPR은 유럽연합(EU)과 유럽경제지역(EEA)의 데이터 보호 및 개인정보에 관한 EU 법률의 규정이며, EUEEA 지역 밖에서 개인 데이터의 전송을 다룬다. GDPR의 주요 목적은 개인에게 개인 데이터에 대한 통제권을 주고, EU 내에서 규제를 통합하여 국제 비즈니스를 위한 규제 환경을 단순화하는 것이다

규제안에서는 인간의 생명이나 기본적인 권리에 미치는 영향의 크기를 기초로, AI가 가져오는 리스크를 금지 () 리스크 한정적인 리스크 최소한의 리스크라는 4 단계로 분류했다.

가장 엄격한 금지는 정부가 개인의 등급AI를 이용하는 것 등이 대상이 된다. 개인의 신용도를 평가하는 구조로서 중국 알리바바 집단 산하의 금융회사 앤트그룹(ANT Group)이 도입한 '쯔마신용(芝麻信用)‘ 등이 알려져 있다.

국가가 이런 수법을 사용하면 민주주의의 근간이 무너질 수 있다는 판단이다. 쯔마신용(Zhima Credit)이란 모바일 결제, 온라인 쇼핑몰 이용 실적, 인터넷 납부 데이터 등을 기반으로 한 중국 알리바바의 신용평가 서비스를 말하는데, 국가가 이 같은 서비스를 채용한다면, 민주주의의 핵이라 할 사생활 침해 논란이 커지면서 민주주의의 근간이 훼손될 가능성이 매우 높아질 수 있다.

특히 경찰 등이 얼굴 인증 기술을 활용해 공공장소에서 시민들을 상시적으로 감시하는 것도 원칙적으로 금지된다. 얼굴 인증 기술은 인종이나 성별에 따라 정확도가 차이가 난다는 지적을 받아왔다.

미국에서는 2020년 백일 경찰관에 의한 흑인 남성 폭행 사망 사건을 두고 경찰의 얼굴인증 기술의 이용이 비판의 중심으로 떠올랐다. 이에 따라 미국 아마존닷컴 등이 관련 사업을 중단하거나 철수하게 됐다.

위험도가 높은(high risk) 대상은 그 폭이 넓다. 운수나 가스, 수도 관련의 중요 인프라, 교육 현장에서의 시험 평가, 로봇을 이용한 수술, 채용으로서의 이력서 관리, 대출(loan) 등에 관련되는 신용조사, 이민과 난민에 과련 서류의 관리 등에 사용되는 AI가 해당된다.

물론 이러한 대응은 쉬운 일이 아니다. 주요 인프라에 깔리는 인공지능(AI)에서는 항공, 철도, 에너지 업계에 막대한 영향을 미칠 가능성이 있다. 채용 활동 등에 사용하는 AI에 대해서도 해당 기업이 다수로 보인다.

유럽의 이번 규제안에서는 이러한 이용은 제 3자 기관 등의 사전심사를 거칠 필요가 생긴다. 적절한 데이터의 시용과 소비자에 대한 충분한 설명, 인간이 감시할 수 있는 구조 등이 요구되어, 기업에 있어서는 대응을 위한 비용이 부풀어 오를(cost-up) 우려가 있다.

"한정적 리스크는 심각한 위험이 없는 AI로 분류된다. 언어 분야에서 AI 기술을 이용한 챗봇과 같은 시스템이 대상이 된다. 기업이 소비자로부터 문의에 응답을 할 목적 등에서 사용하고 있어 인간이 아닌 AI가 대응하고 있다는 사실 명시 등이 필요하다. 인간의 음성과 AI의 소리를 반드시 분리, 이용자가 알 수 있도록 해야 한다.

가장 낮은 단계인 최소한의 리스크에서는 기존의 법령을 만족시키고 있으면, 추가 대응은 필요 없다. 스팸 메일을 제거하는 목적용도 등이 포함되어 있어, 유럽위원회는 대다수 AI는 이 카테고리 안에 속한다고 설명하고 있다.

유럽연합(EU)은 이번 규제를 마련함으로써 AI에 대한 규칙(rule) 형성에서 주도권을 잡는 목적도 있어 보인다. 다만 규제안에 대해서는 일부 국가에서는 너무 가혹하다는 평가와 함께 우려의 목소리가 나오고 있으며, 산업계로부터 반발이 한층 더 강해질 가능성도 있다.

규제안이 법률로 완성되려면, 유럽의회와 유럽연합(EU) 각료이사회의 승인이 필요하다. 일부 유럽의원은 애매한 규정이 많아 충분한 심의가 필요하다고 말하고 있어, 성립할 때 까지 상당한 시간이 소요될 것으로 보인다.

* ‘AI 규제안에 대한 디지털 유럽의 의견

유럽위원회가 새로 마련한 인공지능 규제안(new AI regulation)에 대해 디지털 유럽은 아래와 같은 의견을 내놓았다.

디지털 유럽은 유럽위원회가 고위 전문가 그룹의 권고에 따라 위험기반 접근법(a risk-based approach)’을 채택한 것을 기쁘게 생각한다면서도 제안은 좋은 것이지만 아직 할 일이 많다고 했다.

인공지능(AI) 소프트웨어를 EU제품 준수 프레임워크에 포함시키면 많은 제공자들에게 과도한 부담으로 이어질 수 있다고 우려를 나타냈다. AI 소프트웨어를 업데이트하고 최신 기술 개발을 적용하거나 결함을 해결하기 위해 신속하게 움직여야 하는 산업이라는 점을 인식해야 한다.

이 규제안을 보도 ‘'고위험분야의 미래 창업자들이 유럽 진출을 결정할지는 여전히 미지수다. 소규모 기업은 이러한 요구사항을 탐색하기 위해 지침, 재정적 지원 및 단순하고 간소화된 프로세스가 필요하다. 새로운 규칙에 매몰되지 말고 효과적인 샌드 박스를 통해 중소기업을 육성해야 한다.

유럽 AI 보드(board)의 창설을 환영한다. 장벽과 단편화를 줄이는 데 중요한 역할을 할 수 있다. 성공하기 위해서는 위원회가 진정한 민간 공공 협력체이며, 공공 이해관계자들과 동등한 입장에서 산업 대표자를 포함시키는 것이 중요하다.

우리는 평의회 및 유럽의회와의 협력을 통해 그들의 정책 작업을 지원하고 혁신을 가능하게 하면서, 우리의 기본권을 보호하는 균형 잡힌 결과를 얻을 수 있기를 기대한다고 밝혔다.

그러면서 디지털 유럽측은 '새로운 유럽의 AI 규제안과 관련, 7가지의 질문을 아래와 같이 던지고 있다.

1. 고위험(High Risk)이란 ?

지금까지의 모든 지침을 보면 유럽위원회가 위험에 기초한 접근법을 따를 것이라는 것이다. 이것은 좋은 일이다, 왜냐하면 우리는 이미 분야별 법률에 존재하는 많은 강력한 보호를 복제하고 싶지 않기 때문이다. 그러나 이것은 무엇이 고위험인지에 대한 정의를 특히 중요하게 만든다.

2. GDPR에서 배운 적은 있나?

GDPR 구현의 교훈을 기억해야 한다. 규정 준수 비용이 엄청났고 구현이 어려웠다. 특히 중소기업/스타트업에서는 GDPR 준수를 위해 전체 작업흐름(workflow)을 수정하는 것이 큰 과제였다.

새로운 AI 규제안은 최소한 적절한 훈련, 지침, 충분한 구현 시간이 없으면 안 되며, 그러한 모든 AI 개발 회사에 새롭고 낯선 규제 장애물을 도입해서는 안 된다. 우리는 또한 GDPR과는 달리 모든 회원국이 동일한 방식으로 이행하는지 확인할 필요가 있다. 만약 그렇지 않다면 우리는 유럽의 AI 혁신을 없앨 것이다.

3. 소프트웨어가 포함되어 있나?

만약 그렇다면, 그것은 특정한 요구를 반영하기 위한 특별한 규칙을 가지고 있는가? 이는 EU의 현재 시장 접근 체계의 일부로서 적합성 평가가 물리적(물질적) 제품을 목표로 하기 때문에 중요하다.

이러한 업무에는 시간이 걸리고, 수십 년에 걸친 기업 내 경험을 토대로 구축된 많은 관리 업무와 전문 지식이 수반된다. 이를 있는 그대로 소프트웨어에 도입하고 확장하면 엄청난 병목 현상이 발생할 수 있으며, 이는 유연성과 속도가 왕성한 세계에는 적합하지 않다.

예를 들어, 기업은 사이버 보안 결함을 해결하기 위해 빠른 소프트웨어 업데이트 또는 패치를 생성해야 할 수 있다. 그들은 그러한 업데이트가 평가되고 승인되기를 몇 주 동안 기다릴 수 없다. AI에 종사하는 소프트웨어 기업 대부분은 하드웨어 제조업체와 달리 적합성 평가 경험이 없는 중소기업이다. 상황이 브렉시트(Brexit : 영국의 유럽연합 이탈)와 약간 비슷한데, 대기업은 새로운 규칙에 적응할 수 있었지만, 중소기업은 추가 번거로운 형식주의(red Tape. 문서주의) 때문에 어려움을 겪었다.

4. 중소기업들을 지원하기 위한 특별한 규칙을 가지고 있는가?

유럽 대륙에서 가장 뛰어난 혁신가들 중 일부는 작은 회사에서 일하고 있다. 예를 들어, 유럽은 AI와 함께 일을 하는 건강 스케일업 허브(hub of health scale-ups)가 커지고 있다(미래 유니콘상 수상자 코르티와 온 컴퍼스-Corti and Oncompass 참조). 우리는 더 간단한 규칙, 더 긴 적응 시간, 재정적인 지원으로 고위험 분야에서 일하는 소규모 기업들을 지원할 필요가 있다고 촉구한다.

5. 혁신이 가능한가?

고위험 분야에서도 수많은 규제 울타리(regulatory hoops)로 혁신을 중단하지 않도록 하고 싶다. 여기서 입법은 명확하고 유연한 요구사항을 제시해야 하며, 산업 중심 표준에 초점을 맞추어야 한다.

이는 AI 표준이 진행 중인 작업이기 때문이며, 데이터 셋(datasets)의 편향을 줄이기 위한 연구와 같은 최신 개발 상황을 따라갈 수 있을 만큼 빠르게 업데이트되는 것이 항상 가능하지 않기 때문이다. 기업은 빠르고 민첩하게 서로 다른 대안 솔루션으로 실험하고 혁신할 수 있는 기회를 가져야 하기 때문에 샌드박스(sandbox)가 그만큼 중요하다.

6. 샌드박스는 그저 유행어 일 뿐인가?

기업이 아이디어를 현실적인 환경에서 테스트할 수 있는 실질적인 가능성이 필요하다. 여기에는 기업에 대한 제한된 책임과 구체적인 보장이 포함되어야 한다. 샌드박스는 정말 제한적이긴 하지만, 혁신적인 새로운 AI 솔루션을 테스트하고 시험해 볼 수 있는 부담스러운 시장 접근 체제를 벗어나는 효과적인 방법이 되어야 한다.

7. 만약 당신이 AI 스타트업에 투자할 100만 유로(134,687만 원)이 있다면, 그리고 이 규정을 본 후에, 당신은 유럽에 투자하겠습니까 ?라는 질문을 했다.

이번에 새로 제안된 규제안의 내용이 많고 긴 기간의 토의과정이 남아있다.

관련기사

핫이슈포토
    댓글삭제
    삭제한 댓글은 다시 복구할 수 없습니다.
    그래도 삭제하시겠습니까?
    댓글 0
    댓글쓰기
    계정을 선택하시면 로그인·계정인증을 통해
    댓글을 남기실 수 있습니다.