인류에 심대한 위협 생성형 AI(인공지능) 규제 법안
스크롤 이동 상태바
인류에 심대한 위협 생성형 AI(인공지능) 규제 법안
이 기사를 공유합니다
- 왜 AI가 규제를 받아야 하나?
- 세계 각국. 지역의 AI규제 상황
- 생성형 AI관련 몇 가지 사례

생성 대화형 인공지능(AI), 즉 챗GPT(chatGPT)와 같은 이른바 문명의 이기가 하루가 다르게 빠른 속도로 향상을 거듭하면서, 끝내 인류에 심대한 위협을 가할 수 있다는 우려와 고민이 섞인 목소리들이 많아지고 있다.

인간은 이 같은 “생성 대화형 AI를 현재의 발전 속도를 그대로 둘 수 있겠는가” 하며 규제가 반드시 필요하다는 의견들이 속출하고, 세계 각국들도 규제에 대해 심도 있게 논의를 이어나가고 있다.

* 왜 AI가 규제를 받아야 하나?

(1) 특히 윤리문제와 안전상의 문제가 우려된다. 생성형 AI는 사람들과 상호작용하고, 다양한 작업을 수행할 수 있다. 그러나 악마적 생각을 가진 사람들이 악의적인 용도로 사용될 수도 있고, 부적절한 행동을 할 수도 있다. 규제는 이러한 위험을 최소화하고, AI 시스템이 사람들을 존중하고 안전한 방식으로 작동하도록 보장할 수 있어야 하기 때문이다.

(2) 늘 사회적 문제가 되는 개인정보 보호이다. AI 시스템은 단시간에 대량의 개인정보를 수집하고 처리할 수 있는 능력이 있다. 이러한 정보는 사용자의 사생활(privacy)을 침해할 수 있으며, 부적절한 방식으로 사용될 가능성이 충분하다. 규제는 개인정보 보호와 관련된 법적 요구사항을 준수하도록 보장하고, 사용자들의 개인정보를 안전하게 관리할 수 있어야 한다.

(3) 공정성과 투명성의 문제이다. 사회는 공정성과 투명성을 요구하고, 정치인들도 외쳐댄다. 정치인들의 공정성과 투명성의 외침은 실제로는 그렇지 못하는 경우가 많지만, 국민들은 공정성과 투명성을 절실하게 요구한다. 생성형 AI는 의사결정을 내릴 때 알고리즘과 데이터에 근거하지만, 이러한 알고리즘과 데이터에는 편향성이나 불공정성이 내재될 수 있다. 규제는 AI 시스템이 공정하고 투명하게 작동하도록 요구하며, 사회적, 경제적 편견을 방지하고 사회적 정의를 증진시키는 방향으로 이뤄져야 한다.

(4) 가장 중요한 일자리를 빼앗길 수 있고 경제적 악영향을 미칠 수 있다. AI 기술의 발전은 일부 산업과 직업에 영향을 미칠 수 있다. 일부 직업이 자동화되고 일부 산업이 변화할 수 있기 때문에, 규제는 이러한 변화에 대비하고 특히 일자리의 손실을 최소화하기 위한 정책과 지원을 제공하는 방향을 잡아야 한다.

(5) 첨단기술 AI로 국제간 경쟁 치열해지면서 협력에 부정적일 수 있는데다 안정성에도 의문이 간다. AI 기술은 국가 간 경쟁과 관련된 문제를 제기할 수 있다. 억제할 수 없는 첨단기술에 대한 야망이 국제간 협력보다는 극단적인 경쟁체제로 돌입, 갈등과 충돌을 야기할 수 있다. 규제는 국제 협력을 촉진하고, 국가 간의 협력과 안정성을 유지하기 위한 규칙과 규범을 확립할 필요가 있다.

(6) 의료 현장에서의 AI 활용에 있어 오진의 경우 책임소재로 큰 사회적 논란을 초래할 수 있다. 신중하게 진행할 필요가 있다. AI가 오진하면 누가 책임질지 명확하지 않다.

좀 더 구체적으로 살펴보면 우선 신뢰도와 오류의 문제이다. 생성형 AI는 대규모 데이터를 기반으로 예측과 결정을 내리지만, 데이터의 품질에 따라 결과가 크게 달라질 수 있다.

특히 개인의료정보의 유출 가능성이다. 이는 환자의 신뢰를 손상시킬 수 있으며, 나아가 의료진 역량 감소의 문제도 제기된다. 의료 AI의 도입으로 인해 일부 의료진들은 자신의 판단 능력이 상실될까 두려워할 수 있다. 의사나 간호사 등의 전문가가 AI의 판단에만 의존하는 경향이 생길 수 있으며, 이는 의료진의 역량 저하와 의사결정 과정의 손실을 야기할 수 있다.

나아가 기술적 제약과 역량 부족도 문제점이다. 의료 현장은 기술적 제약이 많은 환경일 수 있다. AI 시스템의 구축, 유지 및 업데이트에 필요한 인프라 및 기술적 역량이 부족할 수 있으며, 이로 인해 AI 시스템의 효율성과 신뢰성이 저하되거나, 전체적인 시스템의 성과에 영향을 미칠 수 있다.

사회 전반적인 문제인 윤리적 문제도 의료분양서 발생할 수 있다. 의료는 윤리적으로 민감한 분야다. AI의 결정 과정이 투명하지 않거나 공정하지 않을 경우, 윤리적인 문제가 발생할 수 있으며, AI 시스템이 사회적, 인종적 또는 성별적으로 편향된 결과를 도출하는 경우, 공정성과 평등성에 대한 문제가 제기될 수 있다.

* 세계 각국. 지역의 AI규제 상황

현재 해외에서는 AI와 관련한 정부 차원의 규제들이 나오고 있다. 유럽연합(EU)은 6월 세계 최초로 “AI법(AI Act)”을 유럽의회 본회의 표결에 부친다.

미국 바이든 행정부는 “미국인의 권리와 안전을 보호 하는 책임 있는 AI 혁신을 촉진하기 위한 새로운 조치”를 내놓고, “알고리즘 책임법안” 입법도 추진하고 있다.

중국 사이버 규제당국인 CAC(국가인터넷정보판공실)은 최근 생성AI 제품과 그 개발 방법에 대한 규칙 초안을 마련했다.

한국과 일본에서는 국가 차원에서 AI와 관련한 규제가 만들어지지 못하고 있다.

한국의 기존의 법 제도로는 생성형 AI 등의 속성은 미처 포괄하지 못하는 상황이다. 국내 AI 윤리 기준은 2020년 4차 산업혁명위원회에서 의결한 “AI 윤리 기준”이 전부이다. 해당 기준은 인권 보장, 개인정보 보호, 투명성 등 인간성을 바탕으로 AI 발전을 논의하자는 내용에 불과하다.

일본의 경우, “AI 전략 회의”가, AI에 관한 정책의 논점 정리를 정리했다고 한다. “AI가 가져올 변화는 산업혁명이나 인터넷 혁명을 넘어선다”며 “일본에 큰 기회의 도래”라고 규정하고, 생성 AI의 리스크로서 개인정보의 부적절 이용이나 가짜 정보의 범람, 범죄의 교묘화, 저작권 침해 등 7항목을 들어 활용과 리스크에 대한 대응을 “균형을 맞추면서 진행해 나간다”라고 명기했다.

* 생성형 AI관련 몇 가지 사례

생성형 AI에 의한 저작권 침해를 호소하는 목소리는 전 세계로 확산되고 있다. AI에게 무단으로 작품을 모방 당했다며 미국 일러스트레이터들은 AI 운영기업을 상대로 집단소송을 제기했다.

월스트리트저널(WSJ)을 발행하는 회사의 최고경영자 로버트 톰슨은 생성 AI의 대두로 저널리즘이 치명적으로 훼손될 것이라고 경고한 적이 있다.

일본은 2018년 저작권법을 개정해 글이나 이미지 등 저작물을 권리자 허가 없이 AI가 자유롭게 학습할 수 있도록 했다. 외국과 반대이다.

이 기사를 공유합니다
관련기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
뉴타TV 포토뉴스
연재코너  
오피니언  
지역뉴스
공지사항
동영상뉴스
손상윤의 나사랑과 정의를···
  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 이종민
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 00010 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손윤희
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 뉴스타운. All rights reserved. mail to newstowncop@gmail.com
ND소프트