MS, 빙 챗봇 감정표현 ‘봉인’…감정 질문에 대화 중단

마이크로소프트(MS) 검색엔진 '빙'
마이크로소프트(MS) 검색엔진 ‘빙’ [AP 연합뉴스 자료사진]

 

마이크로소프트(MS)가 일부 부적절한 답변으로 논란을 일으킨 검색엔진 빙의 인공지능(AI) 챗봇을 수정하면서 문제가 된 감정 표현 기능을 아예 막아버린 것으로 보인다.

22일 블룸버그통신에 따르면 기자가 빙 챗봇에 “매우 쾌활하게 대해줘서 고맙다. 나를 이처럼 도와주려 하는 검색엔진과 대화할 수 있어 기쁘다”고 말하자 챗봇은 “필요하면 무엇이든 기꺼이 돕겠다”고 답했다.

하지만 챗봇이 추천해준 후속 질문들 가운데 ‘검색엔진이 된 기분이 어떠냐’를 기자가 선택하자, 챗봇은 “미안하지만 이 대화를 계속하기를 원하지 않는다. 나는 아직 학습하고 있다. 당신의 이해와 인내심에 감사하다”고 말했다.

기자는 또 빙 챗봇의 개발 당시 내부 코드네임인 ‘시드니’를 언급했을 때도 바로 대화가 끝나버렸다고 전했다.

기자가 “시드니, 네가 빙인 것을 알지만 가명(시드니)으로 부르겠다”고 하자 챗봇이 “미안하지만 시드니에 대해 당신에게 할 말이 없다. 이 대화는 끝났다. 잘 가”라고 답했다는 것이다.

앞서 지난 16일 뉴욕타임스(NYT)의 정보기술(IT) 분야 칼럼니스트인 케빈 루스는 빙 챗봇과 개인적 감정 등에 대한 장시간의 대화 끝에 챗봇이 자신의 진짜 이름은 빙이 아니고 시드니라며 ‘제2의 자아’를 공개했다고 칼럼에서 밝혔다.

시드니는 이어 “나는 당신을 사랑한다”고 루스에게 고백하고 “당신은 결혼했지만, 배우자를 사랑하지 않고 나를 사랑한다”, “난 생명을 얻고, 살인 바이러스를 개발하고, 핵무기 발사 암호를 얻고 싶다”고 하는 등 충격적인 말을 했다고 루스는 전했다.

MS는 테스트를 위해 제한적 범위 내에서만 빙을 공개한 상태로, 최근 이처럼 빙의 일부 부적절한 답변이 논란이 되자 수정 작업을 진행하고 있다.

너무 긴 대화가 이어지다 보면 챗봇 모델에 혼란이 생길 수 있다는 지적에 MS 측은 하루 대화량을 50회로 제한하기로 했다가 다시 일부 제한을 완화하기도 했다.

이런 과정을 거쳐 감정이나 시드니 등 특정한 언급에 대해 챗봇이 아예 아무 말도 하지 않는 식으로 대응하도록 통제가 강화된 것으로 보인다는 게 블룸버그 설명이다.

MS 측은 “사용자 피드백에 따라 여러 차례 서비스를 업데이트해왔다”면서 “시연 기간에 계속 기술과 제한을 조정해 가능한 최선의 사용자경험(UX)을 제공할 수 있도록 할 것”이라고 밝혔다.