- 위험 요소에 대한 평가 기준 마련
- 독립적 전문가로 구성된 별도의 감사 필요
생성 대화형 인공지능(AI) 서비스인 챗GPT(chatGPT)를 개발한 샘 올트먼(Sam Altman) 미국의 ‘오픈 AI(Open AI)의 최고경영자(CEO)는 16일(현지시간) 미 상원 소위원회에서 인공지능(AI)로 인한 인간 위험을 줄이기 위해 정부의 규제 개입과 국제기준이 필요하다고 말했다.
이날 열린 상원 법제사법위원회 사생활·기술·법소위가 개최한 청문회에서 처음으로 증언을 한 샘 올트먼은 “일정 이상의 능력을 가지는 AI의 개발과 서비스의 제공에 대해, 미국 정부에 의한 라이센스 제도의 창설을 제안했다. ‘AI의 안전 대책 개발 등에서 정부와 협력할 수 있다’고도 말했다.
미국에서는 지난해 11월 챗GPT 공개 이후 구글(Bard)과 마이크로소프트(Bing) 등 대형 IT기업들의 AI 개발 경쟁이 치열해지고 있다.
AI로 인한 가짜 정보 확산과 사생활 침해 등에 대한 우려 때문에 미 법무부 등은 AI 개발과 사용 감시를 강화할 방침이다.
지난 4일에는 해리스 부통령이 올트만 CEO를 만나 AI 관련 제품의 안전·안심을 확보해 줄 것을 요청했다.
올트먼 CEO는 이날 청문회에서 “오픈AI는 인공지능(AI)이 우리 삶의 거의 모든 측면을 개선할 것이란 믿음으로 설립됐지만 동시에 심각한 위험도 존재한다”면서 “강력한 모델로서 위험을 완화하기 위해 정부 규제 개입이 중요하다고 생각한다”고 밝히고, “가장 우려하는 분야 중 하나는 이러한 모델이 설득과 조작을 통해 일종의 일대일 대화형 허위 정보를 제공할 수 있는 능력이며, 책임 문제에 있어 어떤 체계를 설정할지는 매우 중요한 과제”라고 강조했다.
그는 이어 “미국 정부는 AI 모델을 개발하고 출시하는 데 있어, 일정 역량 이상의 허가와 시험 조건을 고려할 수 있다”고 제시하고, “나 같으면 일정 규모 이상 활동에 대해 허가권을 가진 새로운 기관을 설립하고, 위험 요소에 대한 평가 기준을 만들겠으며, 독립적 전문가로 구성된 별도의 감사도 필요하다”고 강조했다.
그러면서 그는 “우리는 글로벌한 무언가가 필요하다. 순진하게 들릴 수 있지만 국제원자력기구(IAEA)와 같은 선례가 있다. 미국이 다른 국가와 협력해 AI 국제 표준을 설정하는 것은 비현실적으로 들리지만 실제 가능하고 전 세계에 큰 도움이 될 것”이라고 주문하기도 했다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV