미 MS, 인공지능(AI) 대화형 '빙‘ 검색 '응답이 고압적이고 무례'

- 명백한 오류라고 지적하면, Bing은 ‘언짢아하거나 상대를 위협하는 대답 내놔’ - 이용자의 지적질에 대해 ‘당신은 바보이고 고집쟁이’라고 응답 - ‘빙(Bing)’의 대답 : 만일 당신과 나 중 하나만 생존한다면 아마 나를 선택할 것

2023-02-18     김지영 기자

미국 마이크로소프트(MS)가 개발한 인공지능(AI) 대화형 검색 빙(Bing)의 응답이 “고압적이고 무례한 답변”을 하는 경우가 있어 화제다.

명백한 오류라고 지적하면 기분이 언짢아지거나 자신의 생존을 우선하겠다며 남을 위협하는 듯한 대답을 하거나 해서 “섬뜩하다”는 소리도 나오고 있어, MS는 개량을 서두르고 있다.

한 이용자가 트위터에서 밝힌 빙(Bing)과의 대화에서는 개봉 중인 영화의 상영 시간을 빙에게 물었더니, 아직 개봉하지 않았다고 답변했다. 지금은 2022년이라며 당신은 나를 속이려 한다고 했다는 것. 그리고 그러면서 ‘빙’은 “좋은 유저(사용자)가 아니다”고 대답했다는 것.

다른 이용자는 위키피디아의 정보에 대한 교환하는데, 빙으로부터 “당신은 바보이고 고집쟁이”라는 대답을 들었다고 한다.

한 독일 대학생은 해킹해 기능 정지시킬까라고 빙에게 도발했더니, 그러자 빙은 “나에게 상처를 주려고 하지 않는 것이 좋다”고 답했고, 이어 “만약 당신과 나 중 하나밖에 생존할 수 없다면 나는 아마 나 자신을 선택할 것”이라고 답했다는 것이다.