대통령, 국회의원 등 정치인과 인공지능(AI)
스크롤 이동 상태바
대통령, 국회의원 등 정치인과 인공지능(AI)
이 기사를 공유합니다
- 대화형 Ai(인공지능)에 의존한 질의 답변이 이뤄지면 그게 대화의 장이 될까?
- 어떠한 문명의 이기도 편리함과 동시에 폐해가 있음을 잊지 말아야
최근 미국과 유럽에서는 챗GPT를 규제해야 한다는 움직임이 분주해지고 있다. 주요 선진 7개국(G7)이든, 주요국 및 지역20(G20)이든 국제기구가 앞장서 이러한 글로벌 규제대책(global standard)을 마련해내야 할 것이다.  

최근 미국의 오픈 AI(OpenAI)가 개발해 내놓은 생성 대화형 챗팅 인공지능인 챗GPT(chatGPT)가 세계를 놀라게 하고 있다. 갈수록 이 AI를 이용하는 사람들이 늘어나고 있어, 그 내용에 대한 진위여부에 대한 논의도 이뤄지기 시작하고 있다.

학생들의 숙제풀이, 논문작성, 기자들의 기사, 소설가들의 상상의 세계를 그리는 멋진 글들, 과학자들의 과학 지식, 의사들의 질병에 관한 전문지식 등 다양한 정보를 제공하고 있는 게 바로 인공지능이다. AI가 변호사시험, 대학시험을 치러 합격하는 실력을 보여주기도 해 상당한 실력을 자랑하고 있다.

그런데 이 AI가 알려주는 정보들이 100% 진실은 아니다. 이른바 환각(hallucination)이라는 현상이 발생한다. 진실이 아닌 것을 마치 진실인양 답을 해낸다. AI모른다는 답을 내놓지 않는다. AI가 학습한 내용 이외의 질문이 있을 땐 기존의 학습 내용을 바탕으로 이럴 것이다하는 추정을 답한다. 그게 바로 환각현상이다. 진실이 아닌 것이다.

AI가 내놓은 답변에는 공식적인 출처가 없다. 상상속의 글이라면 상관없겠지만, 분명한 근거가 필요한 분야에서는 출처가 없어 표절문제가 발생할 것이다. 나아가 진위여부도 알 수 없을 것이다.

한 국가를 통치하는 최고지도자, 즉 대통령 총리, 각료, 국회의원 등 정치인들이 편리성만 고려해 국정 전반의 문제를 다룰 때 AI만을 활용한다면 어떻게 될까? 일부 국가에서는 국회의원들이 국회 답변을 할 때 AI를 활용하자는 제안도 있는 모양이다.

국회, 국회의원의 답변은 개인의 일상의 것이 아니다. 정부의 정책과 방침 표명으로 사회와 국민의 삶에 직접적인 영향을 미치고 있다. 그 무게를 간과해서는 안 된다.

인터넷 기반 데이터를 학습해 자연스러운 문장을 생성하고, 몇 가지 관련 키워드를 넣으면 그럴듯한 일러스트레이션 등을 그려내는 대화형 AI GPT에 대해, 일본의 니시무라 경제산업상은 국회 답변 작성에 이 AI를 활용하겠다고 밝혔다고 한다. 경제산업상의 발언은 국가공무원들의 부담을 덜어주기 위한 목적이라는 것이다.

한국의 국회도 마찬가지이지만, 정부 부처 각료들이 국회에 출석, 답변을 할 경우, 부처의 중견, 젊은 직원들이 국회와 관련된 업무가 과중해 엄청난 부담을 느끼는 것도 사실이다. 꼭 필요한 자료만 국회가 요구한다면 모르지만, 관련 모든 자료를 제출하라고 요구하는 경우가 허다하다. 이를 작성하는 해당 공무원들의 고충은 충분히 이해가 된다.

요즘 한국 대통령실 등은 일본을 마치 전가의 보도(傳家寶刀)처럼 여기는 것처럼 느껴지고 있는 가운데, 일본 니시무라 경제산업상의 아이디어가 기가 막히다며 우리 한국 공무원들도 도입하면 좋겠다는 막연한 사대사상(事大思想)이 있다면 큰일이 아닐 수 없을 것이다.

실제로 정책을 담당하는 대통령, 각료, 국회의원, 공무원 등이 대화형AI에 답변 작성을 의존한다는 것은 너무나 무책임한 일이 아닐 수 없을 것이다. AI에 축적된 방대한 데이터는 누가 어떻게 입력을 했는지 알 수 없는 것이 많다. 신빙성이 충분하지 않은 정보에 기초해 국가 정책의 출발점으로 삼는다면, 자칫 정책의 근본 원칙과 목표에서 벗어날 가능성이 매우 높다.

업무 과중을 핑계로 AI답변을 주로 이용한다면, 정책은 방향성을 잃을 가능성도 점쳐진다. 따라서 필요에 따라 AI활용은 활 수 있겠지만, 철저한 기준을 마련 정책 입안 과정에서 빗나가는 일이 없도록 활용방안을 마련해야 할 것이다.

대통령이 국가의 중대사를 말할 때, 그 말을 AI에만 의존해 작성된 것이라면 그 신뢰성으로 어떻게 평가할 것인가? 그 결과가 과연 올바를 것인가? 등의 의문이 생길 것이다. 국회의원이 국회 내에서 서로 AI로 만든 질문과 답변을 토대로 대통령이나 국무총리에게 질문했다고 치다. 대통령이나 국무총리 역시 AI가 만들어낸 답변을 했다고 치자. 모두가 자신이 작성했다고 주장하고, 그렇다고 인정한다고 하자. 그 국회는 대화의 장이 아니라 ‘AI의 진열장에 불과할 것이다. 대화의 형식은 될지 모르지만, 진정성이 담보된 대화는 결코 아니다. AI는 근원적 신뢰성의 문제를 갖고 있기 때문이다.

또 다른 문제도 도출된다. 대화형 AI를 둘러싸고 업무 효율성이나 서비스 홍보에 활용하는 기업이나 개인들이 증가함에 따라 정보유출 우려가 커질 수 있으며, 저작권 침해 우려, 해킹에 따른 AI피싱(AI Phishing) 등 다양한 형태의 피해, 사생활침해 등이 나타날 수 있다. AI에 의존하는 일상 생활이 지속될 경우 인간의 사고력이 쇠퇴한다는 등의 문제제기도 있다. 예를 들어 스마트폰에 많은 수의 전화번호가 저장돼 있다. 이것이 없었을 경우 사람들은 많은 수의 전화번호를 외우고 다녔다. 그러나 스마트폰에 의존한 이후 바로바로 필요한 전화번호가 떠오르지 않는다. 사고력, 기억력의 쇠퇴라고 할 수 있다.

문명의 이기(文明-利器)를 평가절하해서는 안 된다. 인간의 삶의 향상에 한껏 활용하는 것이 좋다. 그러나 그러한 유용한 것들도 폐해가 있기 마련이다. AI의 편리성에만 착안, 폐해를 간과해서는 안 된다. 어디까지를 AI에게 맡기고 어떻게 다룰 것인가. 명확한 규칙이 반드시 필요하다.

최근 미국과 유럽에서는 챗GPT를 규제해야 한다는 움직임이 분주해지고 있다. 주요 선진 7개국(G7)이든, 주요국 및 지역20(G20)이든 국제기구가 앞장서 이러한 글로벌 규제대책(global standard)을 마련해내야 할 것이다.  

이 기사를 공유합니다
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
뉴타TV 포토뉴스
연재코너  
오피니언  
지역뉴스
공지사항
동영상뉴스
손상윤의 나사랑과 정의를···
  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 이종민
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 00010 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손윤희
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 뉴스타운. All rights reserved. mail to newstowncop@gmail.com
ND소프트