인공지능(AI) 규제는 어떤 방향이어야 하나 ?
스크롤 이동 상태바
인공지능(AI) 규제는 어떤 방향이어야 하나 ?
이 기사를 공유합니다
- 위험이 아닌 가능성에 집중
이미지=인공지능(AI) 빙 이미지 크리에이터 

2023년 6월 미국 상원 원내대표인 찰스 슈머(Charles Schumer)는 인공지능(AI)이 “이전에 의회가 다루었던 그 어떤 것과도 다르다”고 말했다. 그는 “인공지능 개발자가 새로운 시스템을 생산하는 속도와 인간의 삶을 변화시킬 수 있는 시스템의 잠재력과 관련, 미국 정부는 인공지능을 규제하고 관리하는 방법을 애당초 ‘처음부터’ 시작해야 한다”고 주문했다.

그러나 의원들은 찰스 슈머의 뜻을 무시했다. 오픈 에이아이(OpenAI)가 2022년 말 챗지피티(ChatGPT)를 공개한 이후, 안전한 AI 개발을 장려하는 방법에 대한 제안이 새로운 챗봇(chatbot)이 시장에 출시되는 것보다 빠르게 확산됐다.

대외 문제 전문 매체인 ‘포린 어페어즈’의 12일(현지시간) 보도에 따르면, 2023년 3월, 민주당 의원들은 감시에 AI를 일부 사용하는 것에 대한 유예를 제안했다. 지난해 4월 초당파 국회의원 그룹은 ‘자율 AI 시스템의 핵무기 배치를 금지하는 법안’을 상정했다. 지난해 6월 찰스 슈머는 자신의 AI 의제를 발표했고, 9월에는 초당파 상원의원 그룹이 감독, 투명성, 데이터 개인정보 보호를 촉진하는 AI 거버넌스 법안(a bill for AI governance)을 다시 도입했다.

* 일부는 신기술 발전 속도에 정부 대응은 너무 느려

* 일부는 신기술 발전 속도를 앞서는 사전 규제대책 나오기도

규제 경쟁은 부분적으로 정부가 너무 느리고, 너무 쉽게 어그러지며, 너무 시대에 뒤떨어져 빠른 속도의 신기술을 따라잡을 수 없다는 진부함에 대한 대응인 것이다. 업계 리더들은 미국 정부가 실리콘 밸리의 개발에 생산적으로 대응하기에는 너무 느리다고 자주 불평하며, 이러한 주장으로 신기술에 가드레일을 두는 것에 대한 반대를 정당화한다.

이러한 비판에 대응하여 일부 정부 제안은 신속한 AI 개발을 장려한다. 그러나 다른 법안에서는 AI를 억제하고 위험한 사용 사례와 시민의 개인정보 및 자유에 대한 침해로부터 보호하려고 노력한다. 예를 들어 하원 민주당이 2023년 9월에 제안한 알고리즘 책임법(Algorithmic Accountability Act)은 기술이 배포되기 전에 위험 평가를 의무화했다. 일부 제안에서는 AI 개발을 가속화하는 동시에 제동을 걸기도 한다.

이러한 칭찬할만하지만 혼란스러운 정책 기업가 정신은 정부의 초점을 분산시킬 위험이 있으며, 미국에서 AI에 대한 명확한 거버넌스가 전혀 없는 상황으로 이어질 위험이 있다. 기술 혁신의 곡선에서 뒤처지는 경향은 정부의 본질적인 약점이 아니다. 실제로 정부 규제를 앞지르려는 것은 감독을 회피하려는 기술 업계의 고의적인 전략이다. 정부는 AI 개발을 안정화시키는 역할을 하는 대체할 수 없는 역할을 갖고 있다. 정부는 혁신을 방해할 필요가 없다. 정부는 혁신을 가능하게 하고, 과학 및 기술 투자를 전략적으로 관리하여 피해를 예방할 뿐만 아니라 사람들의 삶을 향상시킬 수 있다.

조 바이든 미국 대통령 행정부는 출범 첫날부터 경쟁, 개인 정보 보호, 편견은 물론 민주주의를 보호하고 경제적 기회를 확대하며 다양한 위험을 완화하는 방법을 고려하여 AI의 광범위한 사용을 다루는 보다 통합된 기술 정책 의제를 위해 노력해 왔다. 그러나 AI 기술은 빠르게 변화하고 있으며, AI 거버넌스의 핵심 목표를 신속하게 그리고 명확히 하여 정책 결정이 단지 반응적으로만 이루어지지 않도록 하려면 훨씬 더 많은 작업을 수행해야 한다.

AI 거버넌스는 미래를 낙원(a vision of paradise과 디스토피아(dystopia)의 비전 사이, 효율성 추구와 형평성 보장이라는 잘못된 딜레마 사이의 엄격한 이분법으로 제시하는 선택 아키텍처를 거부해야 한다. AI의 안전과 혁신은 상호 배타적이지 않다. 그러나 새로 등장하는 AI 기술은 매우 역동적이고 다양한 목적으로 사용되기 때문에, 기존의 정책 접근 방식을 벗어날 수 있다. 미국에는 새로운 AI 정책이 그렇게 많이 필요하지 않다. 새로운 종류의 정책 수립이 필요다.

* 거짓 비유

* FDA, 혹은 IAEA와 같은 AI규제기관의 필요성은 ?

AI를 규제하기 위해 미국과 그 외 지역의 많은 정책 자문가들이 먼저 비유를 찾았다. AI 시스템은 입자 가속기 복합체, 새로운 약물 치료법 또는 원자력 연구와 더 비슷한 것인가? 희망은 유사점을 식별하는 것, 심지어 느슨한 것조차도 AI에 적용해야 하는 기존 거버넌스 전략을 가리켜 현재와 미래의 정책 이니셔티브를 안내할 수 있다는 것이다.

예를 들어, 경제학자 새뮤얼 해먼드(Samuel Hammond)는 핵무기와 관련된 위험을 구축하고 평가하려는 20세기 미국의 대대적인 노력에서 영감을 얻었다. 그는 인공지능이 잠재적으로 제기할 수 있는 가장 큰 재앙적 위험에 초점을 맞춘 연방 연구 프로젝트인 ‘AI 안전을 위한 맨해튼 프로젝트(Manhattan Project for AI safety)’를 제안했다.

비영리 AI 나우 연구소(AI Now Institute)는 미국 식품의약국(FDA)에 기반을 둔 규제 기관의 생존 가능성을 조사하기 시작했다. FDA와 유사한 AI 규제 기관은 AI 시스템의 사전 출시 조사 및 승인에 초점을 맞춰 공공 안전을 우선시할 것이다. 미국 정부는 의약품, 의료 기기 및 국가의 식량 공급을 담당한다.

다자간 비유도 제안됐다. 독일 인공지능연구센터는 입자 물리학의 기초 과학 연구를 감독하는 정부 간 기구인 유럽핵연구기구에서 AI 거버넌스 모델링을 옹호했다. 2023년 5월 당시 OpenAI의 공동 리더였던 샘 알트만(Sam Altman), 그렉 브로크만(Greg Brockman), 일리야 수츠케버(Ilya Sutskever)는 AI 거버넌스 프레임워크가 국제원자력기구(IAEA=International Atomic Energy Agency)를 모델로 삼을 것을 권고했다. 이 모델에서 UN은 가장 발전된 AI 시스템에 대한 안전 표준과 검사 체제를 개발하기 위해 국제 관료제를 설립할 것이다.

국제적으로 조정된 연구 인프라의 부재는 AI 거버넌스에 심각한 과제를 안겨준다. 그러나 국민국가의 구성원 자격을 전제로 하는 전통적인 다자간 패러다임조차도 경쟁적이고 영리적인 산업 활동을 관리하는 효과적인 방법을 제시할 가능성은 거의 없다.

AI 기업은 이미 공공 및 민간기업, 일반 소비자를 포함한 전 세계의 다양한 고객 기반에 제품을 제공하고 있다. 미국 국내 사례를 포함한 이러한 비유 중 어느 것도 AI 시스템 개발을 가능하게 하는 데이터가 이미 글로벌 경제 및 정치적 힘이 되었다는 사실을 반영하지 않는다. 나아가 이러한 모든 잠재적 모델은 결국 AI가 의료, 교육, 농업, 노동, 금융을 포함하여 혁신적인 영향을 미칠 수 있는 일부 중요한 영역을 무시하게 된다.

20세기 비유에 도달할 때의 문제는 AI가 20세기 혁신과 전혀 닮지 않는다는 것이다. 전화, 컴퓨팅 하드웨어, 마이크로 전자공학 또는 여러 제약 제품(수년 또는 수십 년에 걸쳐 발전한 기술 및 제품)과 달리 많은 AI 시스템은 역동적이고 지속적으로 변화한다.

입자물리학 연구의 결과와는 달리, 이는 개발되자마자 합법적인 소비자 사용과 불법적 응용 모두를 위해 신속하게 배포될 수 있다. 기성품의 기존 거버넌스 모델은 AI 거버넌스 문제에 부적절할 가능성이 높다. 과거에 대한 성찰적인 행동은 단순히 현재의 도전에 대응하는 것이 아니라 미래의 도전을 예상하는 독창적인 정책 접근법을 고안할 기회를 박탈할 수 있다.

* (기존의) 닻을 내리다

정책 입안자들은 지침을 얻기 위해 20세기 규제 프레임워크에 접근하는 대신 다른 첫 번째 단계부터 시작해야 한다. 즉, AI를 통치하려는 이유가 무엇인지 스스로에게 물어봐야 한다. AI를 관리하는 작업에서 물러나는 것은 선택 사항이 아니다.

지난 10년 동안 소셜 미디어의 알고리즘 시스템 사용을 통제하기 위한 지연되고, 단절되고, 궁극적으로는 불충분한 노력으로 사회적 혜택이 기술 발전의 새로운 속성으로 흘러내릴 것이라는 수동적 희망의 결과에 대한 냉철한 예이다. 정치 지도자들은 혁신을 지원하려면, 정부의 규제 의무를 중단해야 한다는 이기적인 기술 지도자와 투자자들이 퍼뜨리는 신화를 다시는 받아들일 수 없다.

21세기에 세계가 직면한 가장 중요한 과제 중 일부는 자동화 시스템을 적절하게 규제하지 못한 데서 비롯됐다. 이러한 시스템은 우리의 데이터를 수집하고 우리의 삶을 감시한다. 의료, 형사 사법, 주택 이용에 있어서 이른바 예측 알고리즘과 의사결정 도구를 무분별하게 사용하는 것은 불공평한 대우를 초래하고 기존의 불평등을 악화시킨다.

소셜 미디어 플랫폼의 딥페이크는 잘못된 정보를 증폭시켜 사회 혼란을 조장한다. 경험을 쌓은 기술은 이제 민주주의의 쇠퇴를 재촉하고, 불안을 심화시키며, 전 세계 기관에 대한 사람들의 신뢰를 약화시키고 있다.

그러나 AI 거버넌스를 다룰 때 리더는 AI로 인해 두려워하는 구체적인 위협이 무엇인지뿐만 아니라 어떤 유형의 사회를 구축하고 싶은지 고려하는 것이 중요하다. AI에 대한 공개 토론은 재앙적 위험에 대한 열광적인 추측이 AI의 잠재적 이점을 상상하는 사람들의 능력을 얼마나 압도할 수 있는지를 이미 보여주었다.

* 정책 입안자들의 혜안과 비전이 중요

정책입안자들은 다른 첫 번째 단계부터 시작해야 한다. 즉, AI를 통치하려는 이유를 스스로에게 물어봐야 한다.

그러나 정책 결정에 대한 바이든 정부의 전반적인 접근 방식은 정책을 당면한 문제에 대응하는 방법이 아니라 사회를 풍요롭게 하는 기회로 보는 것이 정부 개입에 필요한 초점을 어떻게 가져오는지 보여준다. 이 접근 방식의 핵심은 과학, 연구 및 혁신을 미국 대중에게 가치 제안을 모두 제공하는 것으로 보는 포괄적인 관점이었다. 행정부의 초기 정책성과는 경제적 기회를 강화하고, 미국의 복지를 보장하기 위한 목표 공공 자금, 인프라 투자 및 기술 혁신을 활용했다.

예를 들어, 2022년 인플레이션 감축법(IRA)은 단순히 인플레이션을 억제하기 위해 고안된 것이 아니다. 첨단 배터리, 태양열 발전, 전기 자동차, 열펌프 및 기타 새로운 건축 기술의 생산 및 사용을 장려함으로써 기후 문제 해결에도 도움을 주려고 했다. 위기를 극복하고 환경 정의를 발전시키기 위함이다. 2022년 칩스(CHIPS) 및 과학법은 반도체 연구자 및 제조업체의 새로운 생태계 개발을 지원하고, 소외된 미국 지역 및 커뮤니티를 위한 새로운 기회를 통합함으로써 미국 혁신의 부활을 촉진했다.

다시 말해, 과학과 기술에 대한 정부 투자는 경제적 불평등을 해결할 수 있는 잠재력을 가지고 있다. 주식 포트폴리오를 구축하는 것과 마찬가지로 이러한 투자 중 일부가 완전한 이익을 얻는 데는 시간이 걸린다. 그러나 가치에 기반 한 자유주의 덕분에 바이든 행정부는 불안정한 정치적 환경에서 초당파적 지지를 구축할 수 있었다.

* 유연한 혜택

바이든 행정부는 AI에도 동일한 접근법을 적용하려는 움직임을 보이기 시작했다. 2022년 10월 백악관은 산업계, 학계, 시민 사회를 포함한 미국 사회의 다양한 부문 대표자들의 참여를 통해 추출된 AI 권리장전(AI Bill of Rights)에 대한 청사진을 발표했다.

이 청사진은 5가지 제안을 제시했다. ▶ AI 시스템은 안전하고 효과적이어야 한다. ▶ 대중은 자신의 데이터가 비공개로 유지된다는 점을 알아야 한다. ▶ 대중은 편향된 알고리즘을 사용해서는 안 된다. ▶ 소비자는 AI 시스템이 사용될 때 통지를 받고 이를 사용하는 데 동의할 기회를 가져야 한다. 마지막으로 ▶ 시민들은 AI를 사용하여 자신의 삶에 대한 중대한 결정을 내릴 때 인간이 반드시 참여할 할 수 있어야 한다. 이 문서는 감사, 평가, "레드팀 구성", AI 시스템 모니터링 등 공공 혜택을 정책 수단에 반영하는 구체적인 관행을 식별했다.

청사진은 AI 거버넌스가 처음부터 완전히 시작될 필요는 없다는 생각을 강조했기 때문에 부분적으로 중요했다. 이는 수세기 전에 국가 건국자들이 표현했던 공익에 대한 동일한 기본 비전에서 나타날 수 있다. 구성원들이 항상 좋은 미래에 대한 같은 비전을 공유할 사회는 없지만, 민주주의 사회는 시민들이 소중히 여기는 핵심 가치에 대한 기본적인 합의 위에 세워진다. 미국의 경우, 사생활, 자유, 평등, 그리고 법치를 포함한다.

* 국회의원 본능, 새로운 특정 신기술엔 늘 새로운 특정 법률 필요하고 해

이러한 오랜 가치는 여전히 AI 거버넌스의 지침이 될 수 있으며, 반드시 그래야 한다. 기술과 관련, 정책 입안자들은 자신들의 접근 방식이 제품의 참신함으로 인해 제약을 받고 있으며 전문 창작자의 견해를 따라야 한다고 믿는 경우가 너무 많다. 국회의원들은 특정 신기술에는 항상 특정 새로운 법률이 필요하다는 잘못된 인식에 갇힐 수 있다. 그들의 본능은 새로운 기술 개발마다 새로운 거버넌스 패러다임을 고안하는 것이다.

이 본능은 잘못된 것이다. 역사를 통틀어 미국은 시민의 권리와 자유를 재해석하고 확대해 왔지만, 그러한 권리와 자유가 존재한다는 이해는 지속되어 왔다. 정책 입안자들이 AI를 관리할 때 AI 권리장전에 언급된 것과 같은 첫 번째 원칙으로 돌아가면 많은 AI 애플리케이션이 이미 기존 규제 감독을 받고 있다는 사실도 인식할 수 있다.

공공 이익의 비전에 AI 거버넌스를 고정시키면, 규제 혼란과 경쟁이 줄어들어 국회의원들이 현재 작성하고 있는 때로는 모순되는 법안의 흐름을 막을 수 있다. 그렇게 되면 국회의원과 규제기관 모두 정책 혁신이 진정으로 필요한 분야에서 더 창의적으로 생각할 수 있는 자유를 얻게 될 것이다. AI는 정책 혁신을 요구하는 전례 없는 과제를 제기한다. 이미 미 상무부 산하 국립표준기술연구소(NIST)는 AI와 관련해 다른 종류의 정책 수립에 착수했다.

NIST는 “도량형의 표준을 정하라”는 헌법적 의무에 따라 길이와 질량, 온도와 시간, 빛과 전기 등을 측정하는 데 적합한 표준을 결정한다. 2021년 의회는 NIST에 AI 훈련 데이터 및 사용 사례의 편견을 테스트하는 방법을 포함하여 신뢰할 수 있는 AI 시스템의 개발 및 배포를 주도하기 위한 자발적인 프레임워크, 지침 및 모범 사례를 개발하도록 지시했다.

NIST는 업계 리더, 과학자, 대중과의 협의를 거쳐, 2023년 1월 첫 번째 AI 위험 관리 프레임워크 1.0(AI Risk Management Framework 1.0.)을 출시했다. ‘1.0’은 의미가 있었다. 버전 관리(Windows 2.0, 3.0 등)는 버그를 패치하고, 운영을 개선하고, 개선된 기능을 추가하기 위해 소프트웨어 개발 세계에서 오랫동안 일반화되어 왔다.

정책 입안의 세계에서는 훨씬 덜 일반적이다. 그러나 NIST의 정책 버전 관리를 사용하면 AI 표준 개발에 대한 민첩한 접근 방식이 가능해진다. NIST는 또 새로운 리소스와 사례 연구로 6개월마다 업데이트되는 문서에 대한 실용적인 가이드인 ‘플레이북’을 프레임워크와 함께 제공했다. 이러한 종류의 혁신은 다른 기관에도 적용될 수 있다. 표준과 정책을 보다 민첩하게 검토하는 방식이 정부 업무의 보다 정규적인 부분이 되어야 한다.

* 오래된 것이 새롭게 되다

AI 권리 장전과 NIST AI 위험 관리 프레임워크는 인공 지능의 안전하고 신뢰할 수 있는 개발 및 사용에 대한 바이든 대통령의 2023년 10월 전면적인 행정명령의 기초가 됐다. 111페이지에 달하는 이 책은 행정부가 AI를 관리하기 위해 혁신적으로 적용된 기존 지침, 권한 및 법률을 사용하도록 동원했다.

이러한 포괄적인 명령은 많은 주요 관계자에게 숙제를 제공한다. 업계 리더는 가장 강력한 시스템의 내부 작동에 대한 통찰력을 제공하고, 정보의 무결성을 지원하기 위해 제품에 워터마크를 표시해야 한다. 이 명령은 미국 관리예산처(Office of Management and Budget)에 연방 정부의 자체 AI 사용에 대한 지침을 발표하도록 지시했으며, 정부가 AI 시스템 조달에 대한 규칙을 설정하고, AI 제작자에게 투명성을 요구함으로써 시장과 산업 행동을 형성할 수 있는 특별한 권한을 보유하고 있음을 인정했다.

하지만 더 많은 일이 이루어져야 한다. AI 거버넌스는 국제적인 요소가 필요하다. 2023년에 유럽연합(EU)은 AI 거버넌스에 관한 중요한 새로운 법률을 제출했으며, 영국은 이른바 '가벼운 조치(light touch)'를 통해 AI 규제를 해결하기 위해 움직이고 있다. 아프리카연합(AU=African Union)은 지역 AI 전략을 갖고 있고, 싱가포르는 4년 만에 두 번째 국가 AI 전략을 발표했다.

미국의 AI 거버넌스를 괴롭히는 경쟁 제안의 과잉으로 인해 전 세계가 어려움을 겪게 될 위험이 있다. 그러나 국제 거버넌스 노력을 명확히 하는 데 도움이 될 수 있는 기존의 다자간 메커니즘이 있다. UN 헌장(UN Charter)과 세계인권선언(the Universal Declaration of Human Rights)을 통해 UN 회원국은 이미 AI 규제를 이끌어야 하는 공유 핵심 가치에 동의했다.

미 민주당 지도자들은 규제 과정을 방해하고 앞지르는 것이 기술 산업의 비즈니스 모델의 일부라는 점을 이해해야 한다. 근본적인 민주주의 원칙에 정책 결정 과정을 고정시키면 국회의원과 규제 기관이 AI 시스템의 영향을 고려하고 신제품의 과대광고 주기뿐만 아니라 사회적 이익에 관심을 집중할 수 있는 일관된 벤치마크를 제공할 수 있다.

정책 입안자들이 AI 관리에 대한 긍정적인 비전을 중심으로 모일 수 있다면, 기술 규제의 많은 구성 요소가 이미 존재하는 기관 및 기관에서 수행될 수 있다는 것을 알게 될 것이다. 그러나 국가가 현재 미국과 영국에 설립된 AI 안전 연구소와 같은 새로운 기관이 필요하다고 결정한다면, 해당 기관은 시민에 대한 책임을 우선시하고, 공개 협의를 통합하는 민주적 기관으로 되어야 한다.

적절하게 구축된 이러한 기관은 AI가 어떻게 권리와 생계를 침해할 수 있는지 탐지할 뿐만 아니라 위험한 직업을 덜 위험하게 만들고, 의료 서비스를 더욱 효과적으로 만들고, 선거를 보다 효율적으로 만들어 AI가 이를 사전에 향상시킬 수 있는 방법을 정찰하는 광범위한 거버넌스 인프라의 일부가 될 수 있다. 더 신뢰할 수 있고, 교육에 더 쉽게 접근할 수 있으며, 에너지 사용은 더 지속 가능해질 것이다. AI 시스템은 강력하지만, 인간이 만든 도구로 남아 있으며 그 용도는 미리 정해져 있지 않다.

AI 거버넌스는 혁신을 방해할 필요가 없다. 경쟁사의 규제되지 않은 대출이 은행에 좋은지 은행가에게 물어보라. 간단히 말해서, 적극적인 거버넌스가 제공하는 안정기는 안정성을 제공할 뿐만 아니라 제어된 동작 범위도 제공한다. 그러나 먼저 정책 입안자들은 AI를 효과적으로 관리하는 것이 단순히 기술 및 규제 업무가 아니라는 기본 원칙으로 돌아가는 것이야 함을 인식해야 한다.

이 기사를 공유합니다
관련기사
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
메인페이지가 로드 됐습니다.
가장많이본 기사
뉴타TV 포토뉴스
연재코너  
오피니언  
지역뉴스
공지사항
동영상뉴스
손상윤의 나사랑과 정의를···
  • 서울특별시 노원구 동일로174길 7, 101호(서울시 노원구 공릉동 617-18 천호빌딩 101호)
  • 대표전화 : 02-978-4001
  • 팩스 : 02-978-8307
  • 청소년보호책임자 : 이종민
  • 법인명 : 주식회사 뉴스타운
  • 제호 : 뉴스타운
  • 정기간행물 · 등록번호 : 서울 아 00010 호
  • 등록일 : 2005-08-08(창간일:2000-01-10)
  • 발행일 : 2000-01-10
  • 발행인/편집인 : 손윤희
  • 뉴스타운 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 뉴스타운. All rights reserved. mail to newstowncop@gmail.com
ND소프트