- LaMDA : 대화 애플리케이션을 위한 언어 모델(Language Model for Dialog Applications)
- 전문가들 대부분 : 글 AI는 ‘의식을 갖기엔 거리가 멀다’는 결론
미국 구글(Google) 엔지니어가 LaMDA로 불리는 구글의 최첨단 인공지능(AI)에 대해 수백 번의 대화를 거쳐 이 AI가 ‘의식’을 갖는 수준에 도달했음을 확신했다고 워싱턴포스트(WP)에 밝혔다.
구글 측은 즉각 자사 엔지니어의 그 같은 발언을 부정하는 성명을 발표했다고 CNN이 14일 전했다. 구글 측만 아니라 AI전문가와 업계 관계자들도 이 엔지니어의 주장에 대한 반론들이 잇따르고 있다. 그럼에도 불구하고 구글의 AI 가 ‘의식(意識)’을 가질 수 있다는 생각은 이 기술에 대한 불안과 기대를 모두 불러일으켰다.
LaMDA의 명칭은 Language Model for Dialog Applications(대화 애플리케이션을 위한 언어 모델)의 약자이다. 이 AI는 방대한 양의 글을 인터넷에서 학습시켜 쓴 말에 대해 반응할 수 있다.
이러한 AI는 기본적으로 패턴을 찾아내 다음에 올 단어를 예상하는 것이 가능해 질문에 답하거나 인간이 쓴 것처럼 보이는 문장을 쓰는 능력이 향상되고 있다. 구글은 지난해 5월 블로그에서 LaMDA에 대해 “한없이 생각되는 주제에 대해 자유롭게 대화가 가능하다”고 소개한 적이 있다.
워싱턴포스트에 따르면, 구글 엔지니어 블레이크 르모완(Blake Lemoine)은 LaMDA가 감정을 갖는 증거를 구글과 공유했다고 말했다. 이에 대해 구글은 13일 발표한 성명에서 “우리의 AI 원칙에 관한 브레이크 르모완의 우려를 검증하고, 그 증거는 그의 주장에 뒷받침될 수 없다고 전했다”고 강조했다.
르모완은 지난 6일 인터넷 기고에서 “내가 사내에서 지적한 AI 윤리 우려 조사와 관련해, 구글로부터 유급 휴가를 받았다고 털어놓으며 조만간 해고될 수 있다”고 밝힌 적이 있다.
구글 홍보는 르모완 씨가 휴직한 사실을 확인했다. 워싱턴포스트에 따르면, 그는 비밀유지 위반을 이유로 휴직을 하고 있는 것으로 알려졌다.
대량의 데이터로 학습시킨 강력한 컴퓨팅 프로그램이 대두됨에 따라 그러한 기술의 개발이나 사용에 관한 윤리적 우려도 부상하고 있다.
르모완 씨의 견해에 대해 주말에 걸쳐 SNS에 올라온 AI 업계 관계자들의 반응은 전반적으로 구글 AI는 ‘의식을 갖기엔 거리가 멀다’는 결론에서 일치했다.
구글 성명서는 LaMDA가 11개 항목의 AI 원칙 심사를 받았으며, 품질과 안전성, 사실에 근거해 발언할 수 있는 능력과 관련한 엄격한 조사와 테스트를 진행하고 있다고 강조했다. "폭넓은 AI 업계 일각에서는 감정을 가진 AI나 범용 AI의 장기적인 가능성을 검토하고 있지만, 감정을 갖지 않는 현재의 대화 모델을 의인화함으로써 그렇게 하는 것은 앞뒤가 맞지 않는다“고 했다.
나아가 “수백 명의 연구자나 엔지니어가 LaMDA와 대화해 왔지만, 블레이크와 같이 폭넓은 주장을 전개해, LaMDA를 의인화한 사람은 아무도 없다”고 한다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV