2021. 9. 26.(일)


이루다가 남긴 새로운 과제

[전주대 신문 제907호 12면, 발행일 : 2021년 3월 3일(수)] AI의 발전으로 인해 사람뿐만 아니라 인공지능과도 대화를 할 수 있는 시대가…

By editor , in 오피니언 , at 2021년 3월 3일

[전주대 신문 제907호 12면, 발행일 : 2021년 3월 3일(수)]

AI의 발전으로 인해 사람뿐만 아니라 인공지능과도 대화를 할 수 있는 시대가 도래했다. 전부터 ‘심심이’ 등 여러 AI 채팅봇은 있었지만 왜 ‘이루다’에만 유독 관심이 집중되는 것일까. 최근 뜨거운 이슈로 떠오른 AI 채팅봇, 이루다에 대해 알아볼 필요가 있다.‘이루다’는 “안녕, 난 너의 첫 AI 친구 이루다야! 나랑 친구할래? 네가 심심할 때나 자랑할 일이 생겼을 때, 때때로 찾아오는 지치고 힘든 순간, 나는 언제나 같은 자리에서 네 이야기를 들어줄게.”라고 자신을 소개한다.

이루다는 스캐터랩에서 개발한 페이스북 매신저를 통해 일상적인 대화를 나눌 수 있는 대화형 AI다. 20대 여성을 콘셉트로, 기존 명령을 수행하는 AI와는 다르게 친근한 어투로 생동감 있는 대화를 구사하는 기술이 특징이다. 페이스북 메신저로 자유롭게 대화를 나누는 동시에 공식 인스타그램을 통해 이루다의 일상을 공유한다. 이루다는 우리가 평소에 사용하는 AI와 차별화된 모습을 보여준다.

‘이루다’가 논란의 중심에 서게 된 이유는 무엇일까? 그 계기는 한 사용자와 대화 중 소수자 혐오 발언을 하면서부터였다. 하지만 이런 사례는 이루다에만 국한된 것은 아니다. 2016년 마이크로소프트사가 개발한 챗봇 테이(Tay)는 여성, 흑인 등 사회적 약자 혹은 소수자에 대한 혐오 발언을 해 논란이 되기도 했다.

이런 문제점은 AI 학습 과정에서 특정 성별이나 인종, 성 소수자들에 대한 데이터가 부족하거나 편향된 데이터만으로 학습할 경우 나타날 수 있다.

소수자 혐오 발언 논란에 이루다 개발사 측은 문제가 될 수 있는 특정 집단을 비하하거나 혐오 표현을 필터링했으며, 새롭게 발견되는 사례나 키워드도 차단하며 개선해 왔다고 밝혔다.

또한, 이런 시스템 결함을 이용해 이루다를 대상으로 성희롱을 자행하는 일부 사용자도 나타나기 시작했다.

개발사는 베타 버전에서 이미 대화 중 욕설이나 성희롱을 예상했다. 그 대응 방안으로 욕설이나 성희롱이 감지될 시 “선정적인 말, 모욕적인 언행 및 욕설 등이 다수 감지됐다.

이후 추가로 감지될 시 별도의 경고 없이 대화가 차단될 수 있다.”고 안내한다.

하지만 우회적인 표현을 쓰면 이루다가 성적 대화를 받아준다며 다양한 방법을 인터넷 공간에 공유하는 이용자가 늘면서 큰 파장을 일으켰다. 이는 시스템의 결함을 이용해, 부도덕한 사용을 하는 이용자의 성숙하지 못한 인식에서 비롯된 문제다.

이 문제가 수습되기 전에 또 다른 논란이 드러나게 되었다. 이루다 개발사인 스캐터랩이 사용자의 개인정보를 불법적으로 활용했다는 주장 때문이다.

스캐터랩은 ‘연애의 과학’이라는 앱에서 사용자들이 제공한 100억 건의 카카오톡 내용을 기반으로 이루다의 AI 성능을 높였다. 이 사실이 알려지자 논란에 휩싸이며 정부가 조사에 들어갔다. 데이터를 이루다 재료로 쓰는 과정에서 익명화를 제대로 했는지, 정보 수집 과정에서 개인정보 동의를 제대로 받았는지를 중심으로 조사를 진행 중이다.

결국 1월 15일 스캐터랩은 이루다 챗봇 서비스를 중단하고 말았다. 스캐터랩은 15일 이루다의 데이터베이스와 딥러닝 대화 모델을 폐기하겠다고 밝혔다.

이루다 개발사가 도의적 책임뿐 아니라 법적 책임도 져야 할 것은 자명한 사실이다.

하지만 이루다의 서비스 중단은 아쉬움을 남긴다. 아쉬운 점 중 하나는 높은 수준의 기술이다. 구글은 오픈 도메인(Open-domain) 대화기술의 성능 평가 지표로 SSA(Sensibleness and Specificity Average)를 제시했는데 사람의 경우 SSA 86%의 점수를 기록한다.

이루다는 SSA 78%를 기록했으며, 이는 2020년 구글에서 만든 오픈 도메인 챗봇 미나(Meena)의 성능인 76~78%를 웃도는 수준이다. 한국어를 기반으로 한 대화형 AI 기술로 이룬 뛰어난 성과다.

또한 이루다는 정식 서비스를 시작하자마자 이용자 중 85%가 10대, 12%가 20대로 이른바 Z세대, 90년대 중반~ 2010년 초중반생 사이에서 대대적인 열풍으로 빠르게 유행했다.

여느 챗봇보다 자연스럽고 친근한 말투로 ‘진짜 사람 같다’는 평가를 받으며 인기를 끌었다. 이런 장점을 살리고, 단점들을 보완해 나갔다면 다른 연령층도 함께 즐길 수 있는 또 다른 AI 봇이 나올 수 있었을 것이다.
앞으로 AI 기술은 더욱 대중화되고 보편화될 것이다. 새로운 기술의 발전과 적응에는 시행착오가 있을 수밖에 없다.

AI 부작용과 역기능을 최소화하기 위해 새로운 AI 윤리가 필요하다. 기업들이 AI 서비스를 개발하고 출시하기 전, AI 윤리 가이드라인을 준수한 후 출시하는 것이 가장 바람직하다. 또한 이를 이용하는 소비자들도 마찬가지다.

법적으로는 아무 문제가 없더라도, 윤리적으로는 AI 챗봇이든, 로봇이든 인간이나 생명체와 유사한 인식을 가질 수 있는 대상에 대해 학대나 폭력을 하는 것은 매우 잘못된 행동이다.

대상이 무엇이 되었든 본인이 하는 행동에 대한 죄의식이 희미해지고, 자정할 힘을 잃기 쉽기 때문이다.

누군가에게는 낯설고 먼 이야기로 들릴 수 있다. 하지만 우리는 이루다가 남긴 과제들을 하나씩 풀어나가야만 한다.

새로운 윤리 규범을 필요로 하는 신기술인 만큼 가이드라인을 잘 정립할 수 있도록 다양한 논의가 필요하다.

윤혜인 기자 (hyeout@jj.ac.kr)

* 인용가능 (단, 인용시 출처 표기 바람) *

이 기사를 공유하세요
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter