유럽연합(EU), 믿을 수 있는 인공지능(AI) 7가지 윤리지침
유럽연합(EU), 믿을 수 있는 인공지능(AI) 7가지 윤리지침
  • 김상욱 대기자
  • 승인 2019.04.09 16:48
  • 댓글 0
이 기사를 공유합니다

- 책임성, 신뢰성, 안정성, 투명성, 공정성 등 앞으로 보완 과제 해결 중요
- 무기개발에 AI 시스템 사용 금지 항목 빠져 우려의 목소리
유럽연합은 이번 7개 인공지능 윤리지침을 기술기업들과 테스트 프로그램을 통해 충분한 절차를 거치면서 7개 항목에 대한 새로운 질문, 언급되지 않은 문제 등을 찾아내 보완해야 할 과제가 놓여 있다.
유럽연합은 이번 7개 인공지능 윤리지침을 기술기업들과 테스트 프로그램을 통해 충분한 절차를 거치면서 7개 항목에 대한 새로운 질문, 언급되지 않은 문제 등을 찾아내 보완해야 할 과제가 놓여 있다.

유럽 연합(EU)의 행정 집행기관인 유럽위원회는 8(현지시각) 인공 지능(AI)의 활용을 위한 "윤리 지침"을 발표했다.

인간을 주체로 한 신뢰할 수 있는 AI”을 내걸고, 그 실현을 위한 7항목의 요건을 제시했다. EUAI 개발에서는 미국과 중국에 뒤지기는 하지만, 세계적인 룰(Rule)을 만들기로 한 것이다.

유럽연합의 이러한 인공지능 윤리지침은 새로운 기술이 예상치 못한 부정적인 결과를 초래할 경우, 규제 당국이 그런 기술을 따라잡지 못하는 상황을 대비하기 위한 것이라는 설명이다.

AI 활용을 둘러싸고, 의료나 에너지 절약, 자동차의 안전이라고 하는 분야에서 이익을 가져다 줄 것이라는 기대가 있는 한편, 법적이나 윤리적인 과제도 있다.

지침은 이러한 잠재적인 위험을 줄여, 경제와 사회로의 혜택의 최대화를 도모하는 것이 목적이다.

AI 윤리지침은 인간에 의한 AI감시를 확보하고, 그 판단에 따라 차별받는 일 없이 다양성이 유지될 필요성이 있다고 지적했다.

AI가 가져오는 결과에 대한 책임소재를 명확하게 하는 것을 물론 개인 데이터의 완전한 보호 등도 요구했다.

EU에서는 지난해 12AI학계, 비즈니스, 시민사회 대표자들의 전문가 회의가 10항목의 윤리 지침안을 마련했고, 그 뒤 의견 공모 등을 거쳐서 이번 7항목으로 정리됐다.

유럽위원회는 8일 발표에서 앞으로 윤리지침에 입각해 주요 7개국(G7)20개국(G20)을 무대로 한 국제적인 논의를 추진할 뜻도 밝혔다.

유럽위원회가 채택한 7가지 인공지능 윤리지침(7 Guidelines for AI Ethics)은 아래와 같다.

1. 인간의 역할과 감독(human agency and fundamental rights) : 인공지능(AI) 시스템은 인간의 역할과 기본권을 지원함으로써 공평한 사회를 가능하게 해야 하며, 인간의 자율성(human autonomy)을 감소시키거나 제한하거나 잘못 인도해서는 안 된다.

[영문] 1) Human agency and oversight: AI systems should enable equitable societies by supporting human agency and fundamental rights, and not decrease, limit or misguide human autonomy.

2. 견고성 및 안전성(Robustness and safety) : 신뢰할 수 있는 AIAI 시스템의 모든 수명주기 단계에서 오류나 불일치를 처리할 수 있을 정도로 안전하고 신뢰할 수 있으며 강력한 알고리즘(algorithms)을 필요로 한다.

[영문] 2) Robustness and safety: Trustworthy AI requires algorithms to be secure, reliable and robust enough to deal with errors or inconsistencies during all life cycle phases of AI systems.

3. 개인정보 및 데이터 통제(Privacy and data governance) : 시민들은 그들 자신의 데이터에 대한 완전한 통제권을 가져야 하지만, 그들과 관련된 데이터는 그들을 해롭게 하거나 차별하는 데 이용되지 않는다.

[영문] 3) Privacy and data governance: Citizens should have full control over their own data, while data concerning them will not be used to harm or discriminate against them.

4. 투명성(Transparency) : AI 시스템이 내린 결정은 추적이 가능해야 한다.

[영문] 4) Transparency: The traceability of AI systems should be ensured.

5. 다양성, 무차별, 공정성(Diversity, non-discrimination and fairness) : AI 시스템은 인간의 능력, 기술(재주), 요구사항(요건)의 전체를 볼 수 있어야 하며, 그에 대한 접근성을 보장해야 한다.

[영문] 5) Diversity, non-discrimination and fairness: AI systems should consider the whole range of human abilities, skills and requirements, and ensure accessibility.

6. 사회적 환경적 복지(웰빙)(Societal and environmental well-being) : AI 시스템은 긍정적으로 사회 변화를 증진시키고 지속가능성과 생태적 책임을 강화하기 위해 사용되어야 한다.

[영문] 6) Societal and environmental well-being: AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.

7. 책임성(Accountability) : AI 시스템과 그 결과에 대한 책임과 그 책임을 보장하기 위한 메커니즘이 마련돼야 한다.

[영문] 7) Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes.

위에서 언급한 7가지 인공지능 윤리지침 가운데 매우 중요한 사항은 역시 투명성과 책임이다. 마리아 가브리엘 EU 디지털 경제부문 최고책임자는 AI 시스템을 사용하는 기업들은 대중에게 무엇보다도 투명해야 한다고 강조하고 있다.

그는 지금 접촉하고 있는 것은 다른 사람이 아니라 알고리즘이라는 사실을 반드시 사용하는 사람들에게 알려주어야 한다면서, “알고리즘에 의한 모든 결정은 검증되고 설명되어야 한다고 강조했다.

다시 말해 알고리즘에 의해 고객의 보험금 청구를 거부하는 보험회사는 왜 그리고 어떻게 알고리즘이 그러한 결정을 내렸는지를 고객이 반드시 알 수 있도록 설명해주어야 한다는 것이다. 또 중요한 것은 인간이 판단했을 때 그 알고리즘이 잘못 결정을 내릴 때 인간이 개입을 해 결과를 뒤집을 수 있도록 해야 한다.

EUAI 시스템이 존재하는 한 안전해야 하고 또 믿을 만해야 한다고 거듭 강조하고 있다. 나아가 데이터 보호는 무엇보다도 우선적으로 간주되어야 하고, 사용자가 자신의 정보를 통제할 수 있어야 한다는 것이다.

마리아 가브리엘 최고책임자는 또 먀 시스템을 도입하는 기업들은 그들의 AI시스템이 공정하다는 것을 보장해야 한다고 강조하고, 예를 들어 남성만을 고용한 회사의 데이터를 사용해 만들어진 알고리즘을 채용과정에 사용할 때 이 알고리즘이 여성 후보를 거부할 가능성이 매우 높다는 점을 인식해야 한다는 점이다. 여기에서 공정성이 부각된다.

만일 AI 시스템이 편향된 알고리즘의 입력 데이터를 가지고 있다면 이는 보통 문제가 아니다. 매우 큰 사회적 파장을 불러일으킬 수 있다.

유럽위원회가 공표한 상기 7가지 인공지능 윤리지침은 완성된 것이 아니라 많은 보완이 필요하다. 예를 들어 비영리 단체인 알고리즘워치(AlgorithmWatch)는 유럽의 이 같은 윤리지침을 적용하는 것은 좋은 생각이나, 접근방식에는 약간의 문제가 있다고 지적하고 있다.

마티아스 스필캄프 알고리즘워치의 공동창업자는 유럽의 지침은 신뢰할 수 있는 AI'’는 개념에 초점이 맞춰져 있는데, 이는 잘 정의된 용어가 아니기 때문에 문제가 있다는 지적이다. “신뢰할 주체는 누구이고, 신뢰되어야 할 대상은 누구인가? 미래의 세계에서 관리 감독이 어떻게 다루어 질 것인지는 아직 확실하지 않다.”는 것이다.

또 다른 한 전문가는 유럽의 이번 윤리지침에는 무기개발에 AI를 사용하는 금지하는 내용이 포함되지 않았음을 지적했으며, 안토니 워커 업계 이익단체로 알려진 테크유케이(Tech UK) 대표는 윤리지침의 세밀한 간섭으로 많은 기업들, 특히 중소기업이 이 기술을 구현하는 일이 매우 까다로워 질 것이 우려 된다고 말했다.

따라서 유럽연합은 이번 7개 인공지능 윤리지침을 기술기업들과 테스트 프로그램을 통해 충분한 절차를 거치면서 7개 항목에 대한 새로운 질문, 언급되지 않은 문제 등을 찾아내 보완해야 할 과제가 놓여 있다.



핫이슈포토
핫이슈기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 성재영
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 10 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손상윤
  • 대표이사/회장 : 손상윤
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2019 뉴스타운. All rights reserved. mail to newstowncop@hanmail.net
ND소프트