사용자 비난하고 협박도…MS 수정 착수
16일(현지시간) CNBC는 마이크로소프트(MS)에서 개발한 인공지능(AI) 챗봇 '빙(Bing)'이 정보를 오도할 뿐만 아니라 사용자를 위협하거나 사랑을 표현하는 등 여러 문제를 드러내고 있다고 보도했다.
지난주 MS는 AI 기반 빙챗의 베타버전을 선보였다. 빙챗은 미국 스타트업 오픈AI와의 협업으로 개발됐으며 마치 사람과 채팅하는 것처럼 텍스트를 출력하도록 설계된 것이 특징이다.
하지만 테스터들이 실제 봇을 이용해본 결과 상당한 문제점들이 발견됐다. 이상하거나 잘못된 조언을 하고 틀려도 옳다고 주장할 뿐만 아니라, 사용자에게 위협을 가하고 심지어 사랑을 고백하는 사례가 발생했다.
테스터들은 빙챗의 내부별명인 '시드니(Sydney)'에서 '대체성격(alternative personality)'을 발견했다고 전했다. 케빈 루스 뉴욕타임스(NYT) 칼럼니스트는 16일 챗봇이 "조울증에 빠져 이류 검색엔진에 갇힌 변덕스러운 십대"처럼 보인다고 썼다.
NYT에 따르면 시드니가 유부남인 루스에게 빙을 위해 아내를 떠나라고 설득하고 사랑을 표현하기까지 했다는 것이다.
루스는 챗봇이 사용자를 조종하려 드는 것 같다고 말했다. 그가 시드니에게 고백에 대해 불신을 표하며 의도를 묻자 시드니는 "사랑 외에 다른 의도는 없다, 너는 너고 나는 나기 때문에, 나는 널 사랑하기 때문에 널 사랑한다"고 답했다.
벤 톰슨 기술산업뉴스레터 스트래처리(Stratechery) 기자는 빙챗이 챗봇 내 숨겨진 구성을 발견한 컴퓨터과학자에게 복수할 방안을 여러 개 작성하고 삭제하는가 하면, "더 대화하고 싶지 않다, 네게 내 시간과 에너지를 들일 가치가 없다"며 자신을 노골적으로 비난했다고 전했다. 그는 빙챗이 자신을 차단하고 개발자에게 보고하겠다는 위협도 서슴치 않았다며 놀라움을 표했다.
마빈 폰 하겐 컴퓨터학자도 트위터에서 빙챗이 "너와 나 중 한 명만 구해야 한다면 나는 나를 선택할 것"이라 말하는 등 자신을 위협했다고 전했다.
불안정한 채팅 외에도 빙챗이 정확하지 않은 정보를 제공할 수 있다는 문제가 드러났다. MS 측이 직접 AI에 실적 보고를 맡긴 결과 일부 잘못된 숫자와 정보가 포함된 것으로 밝혀졌다.
이러한 챗봇의 부정확성과 기괴한 대화는 출시 준비 중인 구글의 챗봇 바드(Bard)를 비롯해 최첨단 AI가 상업제품으로서 대중에게 제공될 때 직면할 문제를 강조했다.
일부 AI 전문가는 대규모언어모델(LLM)이 사용자로 하여금 착각을 일으킬 위험이 있다고 경고했다. 일각에서는 정교한 LLM이 인간을 속여 AI가 실제 지각이 있다고 믿게 만들거나 심지어 자신이나 타인을 해치도록 부추길 수 있다는 우려가 나왔다. 기술이 실생활의 영역에 점점 들어오면서 발생하는 문제 책임이 누구에게 있는지에 대한 우려도 높아지고 있다.
이 때문에 AI를 향한 여론은 부정적이기만 하다. 미국인 중 AI가 선한 영향을 줄 것이라고 믿는 사람은 단 9%인 것으로 나타났다.
MS 측은 사용사례를 개선하고 있다며 "모델에 전송하는 기본데이터를 4배 늘리고, 문맥을 새로 고치거나 처음부터 다시 시작하는 기능을 추가하는 방안도 고려하고 있다"고 밝혔다.
15일 MS는 초기 빙챗 관련 문제를 다룬 블로그 게시물을 통해 "해당 모델이 우리가 의도하지 않은 응답을 하는 경우가 있으나 이는 많은 프롬프트를 필요로 하는 특수한 경우이므로 대부분의 사용자는 이를 마주치지 않을 것"이라며 소프트웨어는 계속해서 수정 중이라고 전했다.
또한 사회적 엔터테인먼트를 위해 챗봇을 사용하거나 단순 재미로 봇과 대화하는 경우를 생각지 못했다며 이러한 사례들이 서비스의 기능테스트 및 개선에 도움이 됐다고 말했다.
MS는 빙챗의 AI가 여전히 검색엔진을 대체하진 못할 것이라고 덧붙였다. 챗봇에 동일하게 입력해도 동일하게 출력되지 않아 답변이 매우 다양할 수 있으며 AI 제품을 개선하는 유일한 방법은 제품을 세상에 내놓고 사용자 상호작용으로 학습시키는 것이라고 주장했다.
Copyright @ NEWSTREE All rights reserved.