군대의 변화를 주도하는 인공지능(AI)
스크롤 이동 상태바
군대의 변화를 주도하는 인공지능(AI)
이 기사를 공유합니다
- 인공지능(AI)은 이미 전쟁 중

“2002년에는 특수 작전팀(special operations team)이 은신처 습격 훈련을 했다. 팀은 가상의 테러리스트 지도자가 숨어 있는 군사 훈련용으로 지어진 2층 건물에 조용히 접근했다. 한 군인이 열린 창문으로 살금살금 다가가 인공지능이 조종하는 소형 드론을 던졌다. AI 드론은 건물 내 방을 자율적으로 비행하기 시작했고 카메라의 영상을 외부 지휘관의 휴대용 태블릿으로 직접 전송했다.

단 몇 분 만에 팀은 건물 내부에 대한 완전한 상황을 파악하게 됐다. 어느 방이 비어 있는지, 어느 방이 잠든 가족이 차지하고 있는지, 주요 표적이 어디에 있는지를 알고 있었다. 팀은 어디로 가야 할지 정확히 알고 건물에 들어가 각 구성원의 위험을 줄였다. 훈련은 성공적이었다. 만약 그것이 현실이었다면 팀은 테러리스트 지도자를 죽였을 것이다.”

컨설팅 회사인 웨스트이그젝트 어드바이저(WestExec Advisors)의 공동 설립자이자 경영 파트너이며, 2009년부터 2012년까지 미 국방부 정책 차관을 역임한 미셀 플루노이(Michèle A. Flournoy)는 대외 전문 매체인 ‘포린 어페어즈’에 기고한 글에서 이 같이 인공지능(AI)의 역할과 효과에 대해 상정했다.

미국의 탐사 전문 인공지능 로봇과 드론을 개발하는 업체인 쉴드 에이아이(Shield AI, 미셸 플루노이가 자문을 맡았던 곳)가 설계한 AI 조종 쿼드콥터(quadcopter : 4개의 로터가 달려 있는 헬리콥터)는 이후 실제 작업에 사용됐다. 이는 AI가 미국 국가 안보를 재편하기 시작한 여러 방법 가운데 하나일 뿐이다.

미군은 장비 유지 관리부터 예산 결정까지 모든 것을 최적화하기 위해 AI를 사용하고 있다. 정보 분석가는 AI를 활용하여 수많은 정보를 신속하게 스캔하여 더 나은 판단을 내리고 더 빠르게 수행할 수 있는 관련 패턴을 식별하고 있다. 미래에 미국인들은 AI가 미국과 적국이 전장에서 싸우는 방식도 변화시킬 것이라고 기대할 수 있다. 간단히 말해서, AI는 이제 막 전개되기 시작한 보안 혁명(security revolution)을 촉발시켰다.

AI가 대중의 의식 속에 터져 나오자 일부 연구자들은 AI의 위험성을 우려해 개발 중단을 촉구하기도 했다. 그러나 미국의 AI 발전을 멈추는 것은 불가능하다. (역시 중국이나 러시아도 마찬가지이다). AI 의 수학적 기반은 어디에나 있고, AI 모델을 만드는 인간의 기술은 널리 확산됐으며, AI 연구 개발의 동인(動因, 인간의 창의성과 상업적 이익 모두)은 매우 강력하다. 진행을 멈추려고 하는 것도 실수이다.

중국은 특히 군사 응용 분야에서 AI 분야에서 미국을 능가하기 위해 열심히 노력하고 있다. 만약 성공한다면 중국은 훨씬 더 강력한 군대를 보유하게 될 것이며, 잠재적으로 미국이 대적할 수 있는 것 이상으로 작전의 속도와 효과를 높일 수 있을 것이다. 미국 네트워크와 중요 인프라에 대한 사이버 및 전자전을 사용하는 중국의 능력도 위험할 정도로 향상될 것이다. 간단히 말해 미국 국방부는 책임 있는 AI 채택을 느리게 하는 것이 아니라 가속화해야 한다는 게 미셀 플루누이의 주문이다. 그렇지 않으면 워싱턴은 미국의 이익, 동맹국과 파트너의 안보, 규칙 기반 국제 질서를 보장하는 군사적 우위를 잃을 수 있다.

그러나 가속화는 말처럼 쉽지 않다. 미국은 인공지능 연구 및 개발 분야에서 세계를 선도할 수 있지만, 미국 정부는 여전히 AI와 같은 혁신적인 기술을 속도와 규모에 맞춰 채택하는 데 어려움을 겪고 있다.

AI 제품을 테스트, 평가, 조달 및 관리하는데 필요한 전문 기술과 지식을 갖춘 전문가가 충분하지 않다. 대규모 AI 모델을 지원하는 데 필요한 데이터와 컴퓨터 인프라를 계속 구축하고 있다. 가장 유망한 AI 프로토타입을 신속하게 가져와 여러 기관에 걸쳐 확장하는 데 필요한 유연한 자금이 부족하다. 그리고 군사 시스템에 통합된 모든 AI가 안전하고 신뢰할 수 있는지 확인하는 데 필요한 테스트 및 평가 프로세스와 플랫폼을 아직 구축하지 않았다. AI가 힘을 사용하는 역할을 수행할 때 안전성과 신뢰성에 대한 기준은 매우 높게 유지되어야 한다.

정치인과 국방 관계자는 이러한 문제를 알고 있다. 의회 지도자들은 AI에 세심한 주의를 기울이고 있으며, 업계를 규제하면서도 전 세계적으로 경쟁력을 유지할 수 있는 방법을 논의하고 있다. 미 국방부 장관실은 국방부의 책임감 있고 안전한 AI 채택을 촉진하기 위해 AI에 대한 정책 프레임 워크를 발표했다.AI를 육성하는 동시에 그 사용에 가드 레일을 두려는 본질적인 노력 (외견상 긴장 상태에 있는 목표)이 진행 중이다.

그러나 의회는 아직 조치를 취하지 않았으며 국방부의 AI 프레임워크 구현은 여전히 ​​진행 중인 작업이다. 국방부에 최고 디지털 및 인공 지능 사무국(Chief Digital and Artificial Intelligence Office)을 창설한 것이 중요한 이정표였지만, 의회는 아직 국방 기관 전체에 책임감 있는 AI 채택을 추진하는 데 필요한 리소스를 이 사무국에 제공하지 않았다. AI 방어 애플리케이션이 안전하고 성공이 되도록 하기 위해 미 국방부는 AI 가드 레일을 더욱 강화하고, 새로운 기술 인력을 추가하며, AI를 테스트하고 조달하는 새로운 방법을 개발해야 한다. 시간이 가장 중요하며, 미국이 뒤처지기에는 위험이 너무 높다.

* 바로 지금 (Here and now)

정책과 규정이 여전히 작성되는 동안에도 AI는 이미 미국 보안을 변화시키고 있다. 예를 들어, 미 공군은 AI를 사용하여 자원을 할당하고 단일 결정이 프로그램과 예산을 어떻게 재구성할 수 있는지 예측하기 시작했다. 공군 지휘관이 F-35 편대를 추가하면 AI 지원 자원 할당 플랫폼이 결정에 따른 직접적인 비용뿐만 아니라 인력, 기지, 항공기 가용성 및 기타 중요한 영역에 미치는 영향을 즉시 강조할 수 있다.

마찬가지로, 군대에서는 선박부터 전투기에 이르기까지 복잡한 무기 시스템을 유지 관리하는 데 AI 모델을 사용하기 시작했다. AI 프로그램은 이제 플랫폼의 센서로부터 데이터를 수집하고 언제, 어떤 종류의 유지 관리가 비용을 최소화하면서 준비 상태와 수명을 극대화할지 예측할 수 있다.

이러한 유지 관리 통찰력은 엄청난 도움이 되며 예측 AI가 수행할 수 있는 작업의 시작일 뿐이다. 미국 정보기관과 여러 미국 전투 사령부(특정 지역이나 기능에 대한 작전 책임이 있는 합동군 사령부)는 AI를 사용하여 기밀 및 미분류 기밀 데이터를 조사, 행동 패턴을 식별하고 향후 국제 사건을 예측하고 있다.

정보 커뮤니티에서 AI는 분석가들이 러시아의 우크라이나 침공을 몇 달 전에 예측하는 데 도움을 주었고, 이를 통해 미국은 세계에 경고하고 블라디미르 푸틴 러시아 대통령이 기습적인 우크라이나 침략을 부인할 수 없을 정도로 정확성을 내보였다. 미국 전략 사령부에서는 롬버스 파워(Rhombus Power, 미셰 플루누이가 고문으로 일하고 있음)가 개발한 AI를 사용하여 과거에 종종 탐지를 회피했던 핵과 미사일의 움직임에 대해 관리들에게 경고하는 데 사용되고 있다.

예측 AI는 또한 워싱턴이 잠재적인 적, 특히 베이징의 지도자들이 무엇을 생각할지 더 잘 이해할 수 있도록 해줄 수도 있다. 옛 소련의 의사 결정에 전문가들이 많았던 냉전 시대와는 달리, 미국은 여전히 ​​중국 지도부가 어떻게 정책을 구체적인 행동으로 전환하는지 파악하고 있다.

예를 들어, 정보 커뮤니티는 중국 지도자들의 사용 가능한 모든 글과 연설은 물론 이러한 수치에 대한 미국 정보 보고서를 수집하는 대규모 언어 모델을 개발한 다음 시진핑 중국 국가주석이 명시된 정책을 실행하기로 결정하는 방법을 모방할 수 있다. 분석가들은 모델에 구체적인 질문(어떤 상황에서 시 주석이 대만에 대해 무력을 사용할 의향이 있는가?)을 묻고, 인간이 신속하게 종합할 수 있는 것보다 더 많은 소스에서 얻은 풍부한 데이터를 기반으로 잠재적인 대응을 예상할 수 있다.

그들은 위기가 어떻게 전개될 수 있는지, 그리고 다른 결정이 어떻게 결과를 형성할 것인지를 계획하도록 모델에 요청할 수도 있다. 훈련 데이터(training sets)가 투명하고(핵심 판단의 기초가 되는 데이터 소스를 인용한다는 의미) 신뢰할 수 있는 경우(AI가 설명할 수 없는 추론인 ‘환각-hallucinations’에 취약하지 않음), 결과로 얻은 통찰력은 분석가와 정책 입안자에게 정보를 제공하는 데 유용할 수 있다.

정보 장교들은 이미 매일 AI를 사용하여 수천 장의 사진과 비디오를 선별하고 있다. 과거에는 분석가들이 집중된 탱크든 분산된 이동식 미사일이든 관계없이 관심 있는 물체를 찾아 태그를 지정하기 위해 수천 시간의 풀 모션 비디오를 시청해야 했다.

그러나 AI를 사용하면 개발자는 모델을 훈련하여 이 모든 자료를 보통 몇 초 또는 몇 분 만에 검사하고 분석가가 찾고 있는 개체만 식별할 수 있다. 분석가는 특정 지리적 영역에서 새로운 관심 개체가 발견될 때마다 경고를 보내도록 AI 모델을 설정할 수도 있다. 이러한 “컴퓨터 시각(computer vision)” 도구를 사용하면 분석가는 인간만이 할 수 있는 작업, 즉 전문 지식과 판단을 적용하여 AI가 발견한 내용의 의미와 의미를 평가하는 작업에 더 많은 시간을 할애할 수 있다.

이러한 모델이 더욱 정확하고 신뢰할 수 있게 됨에 따라 지상에 있는 미군 사령관이 적이 대응할 수 있는 것보다 훨씬 빠르게 중요한 작전 결정을 내릴 수 있도록 도와 미군이 엄청난(아마도 결정적인) 이점을 얻을 수 있게 될 것이다.

AI는 다른 방법으로도 군사 작전을 지원할 수 있다. 예를 들어, 적이 미국의 명령, 통제 및 통신 네트워크를 방해하거나 공격하는 경우 AI는 센서, 의사 결정자 및 사수 간의 정보 흐름을 리디렉션하여 그들이 머물 수 있도록 하는 스마트 스위칭 및 라우팅 에이전트(routing agent)를 활성화할 수 있다. 연결되어 상황 인식을 유지할 수 있다. 이러한 능력을 갖추는 것은 워싱턴과 동맹국이 치열한 전투 중에도 적보다 더 빠르게 더 나은 결정을 내릴 수 있도록 하는 데 매우 중요하다.

AI는 현장에서 개별 장병들의 활동을 확대함으로써 미군과 연합군을 더욱 도울 수 있다. 현재 개발 중인 일부 AI 애플리케이션을 사용하면 한 명의 운영자가 공중, 수중 또는 해저의 드론 떼와 같은 여러 무인 시스템을 제어할 수 있다.

예를 들어, 전투기 조종사는 비행 드론 떼(a swarm of drones)를 사용하여 적의 레이더와 대공 방어 시스템을 혼란시키거나 압도할 수 있다. 잠수함 사령관은 수중 무인 차량을 사용하여 강력하게 방어된 지역에서 정찰을 수행하거나 미국과 동맹국 선박을 위협하는 해저 지뢰를 찾을 수 있다. 미 국방부는 최근 향후 2년 이내에 수천 대의 소형, 스마트, 저비용, 소모성 자율 시스템을 배치할 것을 약속하는 리플리케이터(Replicator) 드론 프로그램을 발표했다.

대만을 둘러싼 중국과의 갈등에서 이러한 인간-기계팀 구성은 매우 중요할 수 있다. 중국이 대만 섬을 자기 영토라고 주장하기 위해 무력을 사용하기로 결정하면, 중국은 자신의 뒷마당에서 싸울 수 있는 이점을 갖게 되어 더 쉽게 군대를 결집할 수 있다. 한편 미국은 훨씬 적은 수의 병력을 장거리로 파견할 것이다. 미군이 전투기, 폭격기, 함선, 잠수함과 같은 유인 플랫폼을 상대적으로 값싼 무인 시스템으로 다수 강화할 수 있다면, 이러한 상대적인 열세를 어느 정도 보완하고 중국군의 작전을 크게 복잡하게 만들 수 있다.

* 플레이는 제대로

물론 중국은 미국에게 기술 우위를 양보할 의사가 없다. 자체적으로 첨단 AI 군사 애플리케이션을 개발하기 위해 열심히 노력하고 있다. 중국은 감시, 표적 식별, 드론 떼 등 미국과 동일한 AI 사용 사례에 막대한 투자를 하고 있다. 차이점은 특히 완전 자율 무기 시스템 사용과 관련하여 미국 및 동맹국과 동일한 윤리적 제약에 얽매이지 않을 수 있다는 것이다.

기술 패권(technological supremacy) 경쟁에서 중국은 몇 가지 분명한 이점을 갖고 있다. 워싱턴과 달리 중국은 국가의 경제적 우선순위를 결정하고, AI 목표를 달성하는 데 필요하다고 판단되는 모든 자원을 할당할 수 있다. 중국의 국가 안보 정책은 중국의 해커, 관료, 직원이 서구의 지적 재산을 훔치도록 장려하고 있으며, 중국은 자국 기관과 협력할 서방의 선도적인 기술 전문가를 채용하는 데 뻔뻔스럽게 노력하고 있다.

중국은 민간과 군의 장벽을 없애는 ‘민군융합(civil-military fusion)' 정책을 펼치고 있기 때문에 인민해방군(PLA)은 언제든지 중국 전문가와 기업의 활동을 활용할 수 있다. 그리고 2025년까지 중국은 박사 학위를 거의 두 배나 많이 배출할 것이다. 미국처럼 과학, 기술, 공학, 수학 분야의 후보자들이 늘어나고 있으며, 특히 재능 있는 컴퓨터 과학자들이 중국 경제에 넘쳐나고 있다.

그러나 미국은 자신만의 고유한 강점을 가지고 있다. 국가의 시장기반 경제와 보다 개방적인 정치 시스템은 개발자에게 창의성을 발휘할 여지를 제공한다. 실리콘밸리, 오스틴 수도권(Austin metropolitan area), 매사추세츠 128번 도로(Massachusetts Route 128 corridor) 등 기타 지역에서 독보적인 혁신 생태계를 보유하고 있다. 미국은 또 비교할 수 없는 국내 및 국제 투자를 끌어들이는 활발한 벤처캐피탈 및 사모 펀드 생태계를 보유하고 있다.

이곳에는 세계 최고의 대학이 많이 있어 세계 최고의 기술 인재를 유치하고 유지할 수 있다. 실제로 실리콘 밸리의 스타트업 중 절반에는 이민자인 창업자가 한 명 이상 있다. 중국의 급속한 AI 발전을 한탄하는 사람들 중에도 미국의 손을 중국의 손으로 바꾸려는 사람은 거의 없다. 그러나 거의 모든 사람들은 미국이 승리하려면 더 나은 플레이를 해야 한다는 데 동의할 것이다.

이를 위해 미 국방부와 정보기관은 AI 채택을 가속화 하는데 더 많은 투자를 해야 한다. 상호 운용성을 보장하기 위해 동일한 표준을 공유하는 공통 디지털 인프라 시스템을 구축하는 것부터 시작할 수 있다. 인프라에는 클라우드 기반 기술과 서비스가 포함된다. AI 모델의 테스트, 평가 및 검증을 위한 정교한 도구 즉 다양한 분류 수준에서 누가 어떤 정보에 액세스할 수 있는지 제어하는 ​​보안 애플리케이션 프로그래밍 인터페이스이다. 목표는 개발자에게 새로운 AI 도구를 생성, 테스트, 검증 및 사용하는 데 필요한 데이터, 알고리즘, 도구 및 컴퓨팅 성능 또는 고속 컴퓨팅 성능을 제공하는 것이다.

물론 이러한 도구는 이를 운영하는 사람만큼만 우수할 것이다. 현재 국방부에는 디지털에 능숙한 인력이 없다. AI의 사용을 적절하게 관리하고, AI 도구를 테스트 및 평가하여 국방부의 ’책임 있는 AI‘ 표준을 충족하는지 확인하거나, 어떤 AI 모델이 군대나 국방부의 요구 사항을 가장 잘 충족하는지 평가할 만큼 AI에 대해 충분히 이해하고 있는 직원은 거의 없다.

더 많은 AI 인재를 유치하고 이미 보유하고 있는 기술 인력을 더 잘 활용하기 위해 국방부는 디지털 기술을 갖춘 직원을 모집하고 관리하는 방법을 개선해야 한다. 미 국방부는 AI에 관한 국가안보위원회의 조언에 따라 디지털 군단(육군의 의무단을 모델로 함)을 설립하여 기술자를 조직, 훈련, 장비할 수 있다.

또한 기존의 모든 병역 사관학교는 AI의 기초를 가르치기 시작해야 하며, 미 국방부는 야심 찬 민간 기술자를 교육하고 훈련하는 “미국 디지털 서비스 아카데미(U.S. digital service academy)”를 설립하여 복무에 대한 대가로 무료 대학 교육을 제공해야 한다. 졸업 후 최소 5년 동안 정부에서 일해야 한다. 마지막으로 국방부는 미국 전역의 기술 인력이 시간제로 국가에 봉사하기 위해 자원봉사할 수 있는 “디지털 예비군(digital reserve corps)”을 창설해야 한다.

그러나 미 국방부는 결코 민간 부문만큼 많은 AI 전문가를 유치할 수 없을 것이다. 따라서 국방 기관은 외부 인재를 활용하는 방법을 개선해야 한다. 우선, 국방부는 기술 기업 및 주요 대학의 컴퓨터 공학과와 대화를 심화시켜야 한다. 또 정부와 사업을 하는 기술 기업에 대한 낡은 장벽 중 일부를 줄여야 한다. 그러기 위해 국방부 관계자는 AI를 포함한 소프트웨어 기반 제품과 서비스를 구매하는 방법을 재고해야 한다.

부서가 군용 하드웨어를 조달할 때처럼 매우 구체적인 고정된 요구 사항 세트를 개발하는 데 수년이 걸리는 대신, 해결하려는 특정 문제와 제안된 솔루션이 충족해야 하는 공통 표준을 신속하게 식별한 다음 기업이 이를 허용하도록 해야 한다. 경쟁입찰 과정에서 솔루션을 제공해야 한다. 또 특정 AI 도구를 실제로 사용할 사람들이 모델이 개발되고 테스트 되는 동안 피드백을 제공할 수 있는지 확인해야 한다.

실제로 미 국방부는 AI 및 기타 상업적 기반 기술을 전문으로 하려는 인수 전문가를 위한 전용 경력 경로를 만들어야 한다. 현재 국방부의 획득 부대 대부분은 잠수함, 미사일, 제트기와 같은 복잡한 무기 시스템을 구매하도록 훈련받았으며, 이를 위해서는 계약업체가 엄격한 사양, 비용 요구 사항 및 예정된 이정표를 충족하는지 세심한 주의를 기울여야 한다.

결과적으로 이들 전문가의 대부분은 (당연히) 매우 위험을 회피하는 경향이 있다. 즉, 빠르게 발전하는 상용 기술을 구매하거나 보다 효과적인 신기술을 통합하기 위해 기존의 다년간의 습득 프로그램을 방해하도록 교육을 받지도 않고 인센티브를 받지도 않는다. 따라서 미 국방부는 이러한 종류의 시스템을 구매하도록 특별히 훈련된 새로운 획득 전문가(acquisition experts) 집단을 만들어야 한다.

내부 개혁이 미 국방부의 진전을 가속화하는 데 도움이 되겠지만, 국방 관계자들도 중국 측과 보조를 맞추기 위해서는 지속적인 의회 지원이 필요하다. 이를 위해 의회는 국방부가 AI 프로그램을 최적으로 관리할 수 있도록 보다 유연한 자금을 지원해야 한다.

국방부 예산의 대부분은 고정되어 있다. 의회가 프로그램에 자금을 지원할 때 국방부는 단순히 그 돈을 다른 곳에 전용할 수 없다. 그러나 AI는 매우 빠르게, 다양한 방향으로 발전하고 있기 때문에 국방부 관계자는 실적이 저조한 프로젝트에서 신속하게 자금을 빼내고, 더 유망한 프로젝트에 재투자하여 의회에 적절한 통지를 제공할 수 있도록 더 많은 재프로그래밍 권한(reprogramming authorities)과 더 유연한 자금이 필요하다. 이러한 접근 방식은 국방부가 더 민첩하고 빠르게 AI를 채택할 수 있도록 하는 데 중요하다.

의회는 유망한 AI 파일럿 프로젝트가 소위 죽음의 계곡(valley of death, 프로젝트가 성공을 입증하는 시점과 부서가 이를 완전히 완료할 준비가 되는 시점 사이의 어려운 기간)을 건너는 데 도움이 되도록 최고 디지털 및 인공 지능 사무국에 가교 자금을 동시에 제공해야 한다. 미군은 2023년에 등장할 중요한 AI 도구의 채택을 2025년 예산이나 그 이후까지 연기할 여력이 없다.

미국은 또 미국 이민 시스템의 요소를 개혁하는 것을 포함하여 세계 최고의 기술 인재를 계속 유치해야 한다. 과학기술 학생과 근로자는 미국에 와서 머물기를 원할 수 있지만, 복잡한 이민 규정으로 인해 많은 사람들이 그렇게 하는 것이 불가능하다.

예를 들어, 교육 비자(Educational visas)는 외국인 학생들이 졸업 후 3년 이상 미국에 머무는 것을 허용하지 않는다. 그 결과 역동성은 비뚤어졌다. 미국 기관은 세계 최고의 기술 전문가 중 다수를 교육했지만 그들을 쫓아냈다. 그들 중 다수는 중국인이고 중국으로 돌아갔다.

또 미국이 숙련된 근로자에게 가장 일반적으로 제공하는 비자인 H-1B 비자(H-1B visas)에 대해 의회에서 부과한 상한선은 해당 국가가 신청하는 사람 중 극히 일부만 받아들일 수 있다는 것을 의미한다.

예를 들어, 2023년 H-1B 추첨 중에 접수된 758,994개의 적격 전자 등록 중에서 15% 미만인 110,791명만 선택됐다. 미국은 AI 및 기타 핵심 기술 분야에서 국가의 경쟁 능력에 기꺼이 의미 있게 기여할 절실히 필요한 외국 인재를 차단하고 있는 셈이다.

* 고위험, 고수익

AI는 미국의 미래 안보에 없어서는 안 될 존재이다. 그러나 이는 또한 큰 위험을 초래할 수 있다. AI는 이미 온라인상에서 허위 정보의 확산을 가속화 하고 채용 시 의도치 않은 차별을 조장하고 있다. 컴퓨터 과학자들은 이것이 ‘기계 속도(machine speeds)’로 자동화된 사이버 공격을 가능하게 할 수도 있다고 주장해 왔다.

화학자들은 AI가 화학무기를 합성할 수 있다는 것을 보여줬고, 생물학자들은 AI가 새로운 병원체나 생물무기를 설계하는 데 사용될 수 있다는 우려를 표명했다. 위험은 AI 업계 리더들 조차 경각심을 표할 만큼 심각하다. 2023년 5월 미국의 거의 모든 주요 AI 연구소 소장들은 자신들의 발명품이 인류에 실존적 위협을 가할 수 있다는 경고 서한에 서명했다.

실제로 국가 안보는 AI의 위험이 가장 심각한 인간 활동 영역이다. 예를 들어, AI 모델은 사람이나 물체를 표적으로 잘못 식별하여 분쟁 중에 의도하지 않은 죽음과 파괴를 초래할 수 있다. 추론을 적절하게 이해하거나 설명할 수 없는 블랙박스 AI 모델은 군사 계획가가 위험한 결정을 내릴 수 있도록 유도할 수 있다. 한 상황을 위해 개발된 AI가 충분한 테스트와 감독 없이 다른 상황에 적용될 경우 이러한 위험은 가장 심각할 것이다. 어떤 상황에서는 완전히 합리적이고 책임감 있는 것이 다른 상황에서는 비합리적이고 위험할 수도 있다.

위험은 잘못 설계되거나 부주의하게 사용되는 시스템에서만 발생하는 것이 아니다. 미국은 AI를 개발하고 구현하는 데 까다로울 수 있으며, 이는 적들이 미국 데이터를 손상시킬 수 있는 방법을 찾아 시스템이 엉망이 되도록 유도할 뿐이다. 예를 들어, 적이 AI 기반 컴퓨터 시각 도구를 스푸핑(spoof : 도용)하여 군용 차량이 아닌 민간 차량을 표적으로 삼을 수 있다면 미국은 의도치 않게 분쟁 지역의 민간인에게 피해를 주어 미국의 신뢰도와 도덕적 권위를 훼손할 수 있다. 또 적들은 AI 지원 무기 시스템의 성능을 저하시키거나 시스템을 종료시키는 방식으로 데이터를 손상시킬 수도 있다.

미 국방부는 이러한 위험을 인지하고 있으며 2020년 2월 AI 사용 방법에 관한 일련의 윤리적 원칙을 발표했다. 한 가지 원칙은 부서 직원이 AI 기능을 개발, 배포 및 사용할 때 판단과 주의를 기울이도록 요구했다. 또 다른 사람은 국방부가 “AI 능력에 있어서 의도하지 않은 편견을 최소화(minimize unintended bias in AI capabilities)”하기 위해 노력할 것이라고 말했다. 세 번째는 투명하고 감사 가능한 데이터와 방법론을 통해 모든 AI가 이해되고 설명될 수 있는 방식으로 제작되고 사용되도록 보장해야 한다는 것이다.

그리고 국방 리더들은 직원들에게 AI 시스템의 안전성, 보안, 효율성을 엄격하게 테스트하도록 지시했다. AI 시스템은 명확하게 정의된 용도에 할당된다. AI 시스템이 의도하지 않은 동작을 보일 경우, 연결이 해제(disengaged)되거나 비활성화(deactivated)될 수 있다.

자율 및 반자동 무기에 대해 국방부는 더욱 구체적인 지침을 발표했다. 미 국방부 지도자들은 지휘관과 운용자들에게 AI 기반 무기에 대해 신중한 판단을 내리도록 지시했다. 여기에는 이러한 무기가 모델 훈련 매개변수 및 AI가 수행하는 작전 교전 규칙과 일치하는 방식으로 사용되도록 보장하는 것이 포함되고 배치되고 있다.

국방부 규정에도 전쟁법에 따라 지휘관이 AI를 사용하도록 규정하고 있다. 예를 들어, 모든 AI 지원 무기는 차별적이어야 하며, 전장에서 전투원과 비전투원을 구별할 수 있어야 하며, 의도적으로 비전투원을 목표로 삼는 것을 피할 수 있어야 한다. 미 국방부는 또 핵 지휘 및 통제 시스템에서 AI의 사용을 금지했으며, 다른 핵 보유국에게도 그렇게 할 것을 촉구했다.

미국 국방관련 지도층 사이에서는 이러한 ‘책임 있는 AI’ 규칙에 대해 큰 합의가 이루어졌다. 그러나 이를 실행에 옮기는 것은 결코 작은 도전이 아니다. 특히 미국 국방 기관의 규모를 고려할 때 더욱 그렇다.

미 국방부는 다양한 AI 애플리케이션을 지원하기 위한 데이터 및 디지털 인프라를 구축하기 시작하면서 높은 수준의 거버넌스 기구를 창설함으로써 프로세스를 시작했다. 국방부의 AI 원칙 준수를 보장하는 데 필요한 테스트, 평가 및 검증 기능을 구축하면 부서 전반에 걸쳐 AI 인식이 향상된다. 이 구현 프로세스는 아직 초기 단계이다. 그러나 정책 프레임워크는 구축을 위한 탄탄한 기반을 제공한다.

그럼에도 불구하고 미 국방부는 이러한 지침을 더욱 강화하는 것이 현명할 것이다. 예를 들어, 국방부 관계자는 모든 AI 공급업체가 훈련데이터에 사용하는 데이터의 출처에 대한 완전한 투명성을 국방부에 제공하도록 요구해야 한다. 또, 부서는 혁신을 방해하지 않으면서 채택하는 모든 AI 모델의 동작이 설명 가능하도록(사용자와 개발자가 완전히 이해하도록) 확인해야 한다.

시스템을 테스트, 평가, 검증하는 방법을 강화함으로써 그렇게 할 수 있다. 또 국방부는 AI 도구가 설계상 설명가능하고 책임이 있는지 확인하기 위해 국방고등연구계획국(DARPA, Defense Advanced Research Projects Agency, 군용 최신 기술 개발을 담당하는 기관 중 하나)이 수행하는 작업을 확장하고 확대해야 한다. 즉, 부서의 윤리적 원칙은 처음부터 국방 AI 모델이 설계되는 방식을 형성하는 필수 특성으로 취급되어야 한다.

그러나 미국 국방계는 대중이 AI를 효과적이고 책임감 있고 윤리적이며 합법적인 방식으로 사용할 것이라고 믿지 않는 한 AI 채택을 가속화할 수 없다. 그렇지 않으면 AI 응용 프로그램이 처음으로 전장에서 매우 잘못된 결정이나 의도하지 않은 심각한 결과를 초래할 때 전투원은 이를 신뢰하지 않을 가능성이 높으며, 정책 입안자와 국회의원은 AI 사용을 중단하거나 금지할 가능성이 높다.

따라서 국방부는 AI 안전 및 보안 연구 개발에 대한 투자를 늘려야 한다. AI를 사용하여 수행할 작업과 사용하지 않을 작업에 대해 투명해야 한다. 그리고 미 국방부는 공급업체가 AI 개발 방법에 가드 레일을 두도록 하는 것을 고려해야 한다. 예를 들어 기업이 군대에 AI를 제공하려는 경우 국방부는 엄격한 데이터 보호 및 사이버 보안 표준을 충족하도록 요구할 수 있어야 한다. 그렇게 함으로써 미 국방부는 군대뿐만 아니라 모든 사람을 위해 AI를 더욱 안전하게 만드는 데 도움을 줄 수 있다.

물론 미국이 단독으로 AI가 책임감 있게 개발되고 사용되도록 할 수는 없다. 경쟁업체를 포함한 다른 국가들도 정책 가드 레일과 규범을 채택해야 한다. 2021년 11월 193개국이 세계 최초로 인공 지능 윤리에 관한 글로벌 협약을 승인하면서 세계는 귀중한 첫걸음을 내디뎠다. 여기에는 국가가 모든 AI에 대한 인간의 감독과 기관을 보장해야 한다는 원칙이 포함된다.

이번 합의가 중요한 기반이기는 하지만, 미국이 냉전 시대 소련과 핵무기 등 군비 통제에 관해 대화할 수 있는 길을 찾았듯이 미국도 잠재적 적국, 특히 중국과 AI를 논의할 수 있는 장을 찾아야 한다. 성공하려면 워싱턴은 동맹국 및 파트너와 긴밀히 협력하여 모두가 같은 생각을 갖고 있는지 확인해야 한다.

일련의 AI 규범에 동의하는 국가는 다자간 경제 제재, 국제 포럼에서 추방, 가해자에게 피해에 대한 책임을 묻기 위한 법적 조치를 포함하여 심각한 비용으로 위반자를 위협해야 한다. 예를 들어, AI 규칙을 위반하는 행위자는 미국 연방 법원에 기소될 수 있다. 2014년에 5명의 중국 해커가 미국 기업에 사이버 공격을 감행한 혐의로 기소되었기 때문이다. 이러한 규칙을 위반하는 국가는 극단적인 경우 군사 행동을 포함하여 피해를 입힌 경우 잠재적인 보복에 직면할 수 있다.

* 책임감 있는 속도의 필요성

마이크로 전자공학 세계에서 전문가들은 무어의 법칙(Moore’s law), 즉 칩의 트랜지스터 수가 2년마다 두 배로 증가하여 기하급수적으로 더 많은 기능을 갖춘 장치가 탄생한다는 원리에 대해 자주 이야기하고 있다. 이 법칙은 스마트폰과 검색 엔진을 포함한 수많은 기술 혁신의 급속한 증가를 설명하는 데 도움이 된다.

국가 안보 내에서 AI의 발전은 또 다른 종류의 무어의 법칙을 만들어냈다. 향후 몇 년 동안 데이터와 AI의 사용을 작전에 조직, 통합 및 제도화하는 군사 최초의 마스터가 누구이든 기하급수적인 발전을 거두어 적에 비해 놀라운 이점을 제공할 것이다.

AI를 대규모로 최초로 채택한 기업은 더 빠른 의사 결정 주기와 의사 결정의 기반이 되는 더 나은 정보를 갖게 될 가능성이 높다. 네트워크는 공격을 받을 때 상황 인식을 유지하고, 군대를 방어하고, 표적과 효과적으로 교전하고, 명령, 통제 및 통신의 무결성을 보호하는 능력을 유지하면서 더욱 탄력적일 가능성이 높다. 또 공중, 해상, 해상의 무인 체계 무리(swarms of unmanned systems)를 통제해 적을 혼란시키고 압도할 수 있을 것이다. 미국은 뒤쳐질 여유가 없다.

그러나 국가안보기구 역시 여유가 없다. 적절한 보호 장치가 없으면 AI 모델은 모든 종류의 의도하지 않은 피해를 입힐 수 있다. 불량 시스템은 전투 지역이나 근처에서 미군이나 비무장 민간인을 죽일 수도 있다. 따라서 미국은 난제에 직면하게 된다. AI 속도를 늦추는 데 따른 위험은 용납할 수 없을 정도로 높지만, 필요한 예방 조치 없이 앞서 나가는 위험도 마찬가지이다.

미국 정책입안자들은 이러한 역설을 이해하고 있는 것으로 보인다. 의회 지도자들은 AI를 너무 강력하게 규제하면 최고의 AI 혁신가들이 미국을 떠나 제한이 덜한 곳에서 일하도록 유도할 수 있으며, 그러면 미국은 경쟁자들보다 뒤쳐지게 될 것이라는 것을 알고 있다.

그러나 민주당과 공화당의 정책 입안자 모두 AI 채택이 안전하고 책임감 있게 이루어지도록 보장하기 위해서는 일부 규제와 감독이 필수적이라는 사실도 역시 알고 있다. 하원과 상원은 의원 교육을 위한 회의를 열고 전문가의 조언을 듣기 위한 청문회 일정을 잡고 있다. 입법 전에 초당적 합의를 구축하려는 이러한 노력은 꼭 필요하다.

그러나 문제를 이해하는 것은 첫 번째 단계에 불과하다. 이를 해결하기 위해(속도 요구와 안전 요구 사이의 균형을 맞추기 위해) 정책 입안자는 채택을 가속화 하고 안전을 보장하기 위한 더 나은 접근 방식을 구현해야 한다. 그렇지 않으면 미국인들은 AI 위험이 급증하고 미국의 힘과 영향력이 감소하는 세계에 휘말릴 위험이 있다.

이 기사를 공유합니다
관련기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
뉴타TV 포토뉴스
연재코너  
오피니언  
지역뉴스
공지사항
동영상뉴스
손상윤의 나사랑과 정의를···
  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 이종민
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 00010 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손윤희
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 뉴스타운. All rights reserved. mail to newstowncop@gmail.com
ND소프트