- 기술 우위 확보 차원, 강대국들의 이해관계로 국제 규칙 마련 지연
- 미국, 규제안 인정은 하면서도 구체적 제안 없어,
- 중국은 찬성하지만, 러시아는 아예 논의 자체도 거절하는 분위기.
문명의 이기라는 것도 잘못 사용되면 문명의 파괴를 초래할 수 있다. 인공지능(AI)이 자율적으로 인간을 살상하는 무기가 활발히 만들어지면 인간에게는 재앙이 될 수 있다. 그러한 무기는 있어서는 안 되겠다.
특히 군사대국을 갈망하는 강대국들의 자율살상 무기에 대한 국제적인 규제안을 마련하는데 앞장을 서야한다. 그러나 사정은 오히려 강대국들의 자율 살상무기 확보 경쟁 때문에 국제 규제안 마련이 지연되고 있는 것이 문제이다.
유엔 안전보장이사회(안보리)가 인공지능에 관 첫 회의를 열었다. 회의 의장국인 영국은 인공지능(AI)은 안보리 작업에 영향을 미칠 것이라며, AI로 인해 세계의 전략적인 안정이 강화될 수 있는 반면 반대로 파괴될 수 있음을 지적했다.
AI 무기는 무인기(drone) 등 무인무기를 인공지능으로 관리, 통제를 하는 것이다. 전투 구역 상황 등 방대한 데이터를 AI가 단시간에 처리하는 능력이 있기 때문에 인간이 계산을 하는 것보다 정밀한 공격이 가능하므로 자국군의 피해를 줄일 수 있다는 장점에 도취될 수 있다.
역으로 상대방도 마찬가지이다. 자율 대 자율, 힘 대 힘이 작용하는 전투현장이 된다는 의미이다. 인간의 의사는 AI자율무기에 전달할 수 없다. 자율살상 무기들끼리 전쟁을 치를 수 있으며, 그 과정에서 자칫 그 무기의 주인이라 할 사람들을 해칠 수도 있다.
미국, 러시아, 중국 등 군사대국은 AI의 군사적 이용을 적극 추진하고 있지만, 현재로서는 그 실태는 매우 불투명한 현실이다. 인간의 판단이 개입되지 않은 채 AI가 공격 목표를 자동으로 설정, 적을 살해하는 자율형살상무기체계(LAWS)는 전투 형태를 크게 바꿀 수 있는 위험을 안고 있다.
인간의 개입 없이 AI가 공격을 최종적으로 판단하게 되면, 책임소재가 불명확해지는 사태는 얼마든지 발생할 수 있다.
안토니우 구테흐스 유엔 사무총장은 안보리 회의에서 “LAWS를 법적으로 금지하는 프레임을 2026년까지 마련해야 한다”고 요구했다. 그러면서 그는 AI를 관리 통제할 수 있는 국제기구를 새로 설치할 필요성을 강조했다.
그동안 전문가들은 국제적인 인도적 차원에서 LAWS사용 금지를 기회 있을 때마다 요구해왔다. 일부 전문가들은 만일 AI 살상무기가 공격을 할 경우, 사령관의 허가를 받는 프로그램을 포함하는 규제안이 마련돼야 한다는 주문도 하고 있다.
지금까지 경과를 보면 군사대국들 사이에는 아직도 개발의욕이 앞서 일정 정도의 규제 합의를 전혀 하지 못하고 있다.
미국은 이번 안보리 회의에서 AI의 군사적 이용에는 ‘윤리와 책임’이 요구된다고 강조하면서도 구체적인 규제에 대한 어떠한 제안도 없었다. 국제규제에 찬성을 보인 중국은 특정 선진국이 배타적 클럽을 만들어 기술적 패권을 얻으려 한다며 비판했다. AI개발이 가장 앞서고 있다는 미국이 자국에 유리한 논의를 주도하는 것을 중국이나 러시아는 경계심을 보일 것이다.
러시아는 아예 국제 규제 자체를 부인하고 있다. AI의 리스크나 위협은 국제사회가 평가할 수 있는 수준에 미치지 못했다는 이유에서다. 그러면서 러시아는 국제기구 설치에도 반대의사를 내비치고 있다. 푸틴의 호전성(好戰性)이 AI자율 살상무기에 투영된 것일까?
이제 AI무기는 어느 한 나라의 문제만이 아니다. 인류 전체의 문제가 돼 가고 있다. 유엔서 적극적으로 논의를 해 사태악화 이전에 국제규제안이 마련돼야 하겠다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV