- GIGO의 AI, 편견이나 차별 태어날 우려도..
- 위험한 ‘가짜 뉴스’ 만능기, ‘시민 감시 도구’ AI
- 핵무기가 세상을 바꾸었듯, 초고속으로 세상을 바꿀 AI
- 윤리 없는 AI 개발은 매우 위험 (윤리가 있는 AI 강국 추구)

인공지능(AI)이 대세다. AI에는 국경도 없다. 경쟁의 치열함도 예상하기 힘들 정도다. 인공지능을 과거처럼 단순한 기술 경쟁이 아니다. 각자도생의 세계에서 생존을 위한 체제(system) 경쟁이다. AI에 뒤처지는 나라는 AI의 피식민지로 전락할 수 있다.
그러나 언제나 그러하듯 새로운 기술에 특히 AI에는 예기치 않은 위험(risk)가 따라붙는다. 인공지능의 보급이 가져오는 사회 변화에 민감하게 그리고 치밀하게 대응하지 않으면 고립되기 쉽다.
* 위험(Risk)을 초래하는 AI
AI는 효율을 가져오는 매우 핵심적인 기술 중의 하나이다. 행정의 효율성을 기하게 위해 AI를 도입할 경우, 자칫 심각한 인권침해를 초래할 수 있다. 지난 2013년쯤 네덜란드 세무 당국은 AI를 사용, 아동수당의 부정수급자를 특정하는 시스템을 도입, 실행했다.
그 결과 약 2만 6천 명에게 실수로 반환 청구를 하는 논란의 사태가 벌어졌다. 어떤 사람은 생활이 붕괴되었고, 우울증이나 자살미수에 몰린 사례도 있다. AI의 “알고리즘”이 외국인 신청자는 부정의 가능성이 높아지도록 설정돼 있었다는 보도가 나왔다.
이같이 새로운 기술에는 위험성이 따른다. 이를 억제하기 위해 유럽 연합((EU)은 2024년 “AI 규제법”을 제정했다. 리스크에 따라 의무화 벌칙을 정한 세계 최초의 포괄 규제법이다.
* GIGO의 AI, 편견이나 차별 태어날 우려도..
‘AI 알고리즘’은 여러 가지 위험을 초래할 수 있다. “쓰레기를 넣으면 쓰레기만 나온다”(Garbage in, garbage out)는 컴퓨터처럼 인공지능 역시 어떤 데이터를 학습했느냐에 따라 산출물(output)은 천차만별이다.
편견이나 차별을 포함한 데이터를 학습하면 결과에도 바이어스(bias, 편향)가 걸린다. 특히 인종이나 출신지를 바탕으로 차별적인 취급을 할 경우, 대출 심사 등으로 특정 사람들이 불이익을 겪는다. 반대로 특정인에게는 특혜가 되기도 한다.
대부분의 AI의 데이터 처리는 외부에서 보이지 않는 “블랙박스”로 되어 있어 편향(Bias)을 찾아내기가 쉬운 일이 아니다. 또 학습 과정에서 저작물이 무단 이용되는 ‘저작권 침해’도 일어나고 있다.
하나의 예로 2023~2024년 사이 뉴욕 타임스(NYT) 등 미국 주요 언론사와 작가들이 오픈AI, MS를 상대로 저작권 침해 소송을 제기했으며, “챗지피티(ChatGPT), 코파일럿(Copilot) 등 AI 제품 개발에 자사 기사·콘텐츠를 허락 없이 학습·활용했다”고 주장하는 등 AI가 출력한 결과가 기존 기사와 실질적으로 유사할 경우 침해로 인정될 수 있다는 점이 쟁점이 됐다.
* 위험한 ‘가짜 뉴스’ 만능기, ‘시민 감시 도구’ AI
전문 지식이 없어도 사용할 수 있는 생성형 AI의 등장으로 민주주의의 기반이 손상될 가능성도 나왔다. AI로 사실인 양 그럴듯한 가짜 정보를 쉽게 양산할 수 있기 때문에 사람들의 인지를 왜곡하고 여론조작이나 선거 개입에도 악용될 수 있다. 나치 독일 시대의 괴벨스처럼 선전 선동가의 역할을 할 수 있는 AI의 알고리즘이다.
사이버 공격이나 무기 이용에도 우려된다. 권위주의 체제 아래에서 시민의 감시에 쓰일 우려도 있다. 특히 독재자에게는 권력 유지에 매우 좋은 도구로 이용될 가능성이 있다. 탐욕의 정치인 역시 영구적인 통치 권력을 확보하기 위한 수단으로서의 AI는 ‘아름다운 것’일 수도 있다.
* 핵무기가 세상을 바꾸었듯, 초고속으로 세상을 바꿀 AI
디지털 경쟁 정책을 추진해 온 빅테크의 ‘천적’이자 ‘공포의 대상’으로 여겨졌던 ‘마르그레테 베스타거’((Margrethe Vestager : 덴마크 출신) EU 집행위위회 부위원장 겸 반독점 규제기관 수장(지금은 임기를 마쳤음)은 지난 2024년 연설에서 “핵무기가 세계를 바꾼 것과 마찬가지로 AI도 사회의 전제를 바꾸는 힘을 가지고 있다”고 지적하고, “기술이 인류에 도전하고 있다. 리스크 제어가 최우선 과제”라고 호소했다.
하지만 규제법이 만능은 아니다. 특히 이해관계가 첨예하게 다른 국제사회에서 규제만으로 AI의 오류를 모두 잡아낼 수는 없다. 각국에서 안보와 산업 정책상의 이해가 다르며 AI 개발은 주로 민간기업이 담당하고 있기 때문이다.
미국이 ‘민간 주도의 AI’라면 중국은 ‘국가 주도의 AI’가 1위를 차지하기 위해 치열하게 경쟁을 벌이고 있다. 따라서 규제법은 목표 지향이 다르기 때문에, 합의를 이루기 쉽지 않다. 따라서 무기 AI가 등장, 보다 복잡한 세계를 만들어낼 수도 있다.
개발을 선도하는 미국에서는 AI 시장이 앞으로 더욱 확대될 것으로 기대를 배경으로 주가가 상승하고 있다. 트럼프 미국 대통령은 제2차 세계 대전에서 원폭을 개발한 “맨해튼 계획’” 비견하는 국가사업으로 AI 개발을 자리 잡고 추진하고 있다. 리스크가 경시될 수 있는 상황이 아닐 수 없다.
“챗지피티”를 만든 미국 오픈AI는 2015년 AI를 통해 인류에 공헌하는 것을 목표로 하는 ‘비영리 조직’으로 출범했지만, 거액의 비용이 들기 때문에 ‘비즈니스 중시’에 힘을 썼다. 민간 주도의 AI의 개발과 그 목표는 ‘인류를 위한 것’이라는 구호는 겉표지의 구호에 지나지 않을 수도 있다. 그들에게는 탐욕적인 이익 확보가 AI 개발의 목적일 수밖에 없다.
이렇다 보니, ‘엄격한 규제’는 기술혁신을 막아 기업 경쟁력을 뒤쫓을 수 있다는 비판을 견디기 힘들어, 유럽 연합도 ‘규제 완화 움직임’을 보이고 있어 안타까운 현실이다.
* 윤리 없는 AI 개발은 매우 위험
지금, 요구되고 있는 것은 안심하고 사용할 수 있는 AI이다. 규제를 효과적으로 사용하면 위험도를 최소화할 수 있는 개발을 뒷받침할 수 있을 것이다. 영리를 우선하고 ‘윤리’가 떠나는 일이 없어야 한다.
AI의 대부(代父)로 불리는 노벨 물리학상(2024년)을 수상하고, 미국 구글에서 심화 학습 실용화를 주도한 제프리 힌튼(Geoffrey Hinton) 캐나다 토론토대학 명예 교수가 2023년 구글에서 퇴사한 것은 “AI 위협에 대해 공공 입장에서 경종을 울리기 위해서였다”는 보도가 있었다.
우려되는 것은 인간이 AI에 대한 의존도를 높여가는 일이다. 알고리즘에 숨어 있는 바이어스(편향)를 도외시한 채, AI에 판단을 맡기면 사회에 심각한 불이익을 가져올 수밖에 없다.
기술 성장이 통제 불가능하고, 되돌릴 수 없게 되어, 인간 문명에 심오하고 예측 불가능한 변화를 가져오는 이론적 시나리오, 인간의 지능을 넘는 “싱귤레러티”(Singularity)가 도래한다고도 한다. 인간을 대신하여 AI가 사회를 움직이는 미래가 찾아오면 어떤 리스크가 생길지 전망하기는 어렵다.
AI 전문가들은 대부분 AI에 의한 리스크에의 마주치는 방법으로서 “답을 (AI에) 의지하지 않고, 자신의 두뇌로 생각하는 것의 즐거움을, 사람에 따라서 생각이 다르다는 것을, 어릴 때부터 교육을 통해서 기르는 것이 중요하다”고 AI시대의 교육 방향을 제시하고 있다.
두말할 나위 없이 “AI는 생활을 풍요롭게 하는 도구이며, 주역은 어디까지나 인간이다.” 정치적 상상력처럼 과학적, 기술적 상상력을 발휘, AI 개발을 서두르고 있는 세계 각국은 위험에 대비한 대책을 세울 필요가 있다. 세계 3대 AI 강국을 슬로건으로 내세우고 있는 한국 역시 개발과 동시에 AI에 의한 위험 회피, ‘윤리가 있는 AI 강국’으로 나가야 할 것이다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV






