주 메뉴 바로가기 본문 내용 바로가기

'이루다'가 이룬 AI윤리

'이루다'가 만들어낸 이슈

작년 말 인간과 가장 유사하게 말하는 인공지능을 표방하며, 출시하자마자 75만 명의 이용자를 끌어들인 챗봇 ‘이루다’는 차별・혐오, 개인 정보 유출 논란으로 인해 출시한지 20일 만에 서비스를 중단했다. 이루다의 운영사 스캐터랩은 “이루다 출시 후 받은 다양한 의견을 반영해 부족한 점을 집중적으로 보완할 수 있는 서비스 개선 기간을 갖겠다” 라며 “혐오와 차별에 대한 대화 사례와 개인정보 활용에 대해 충분히 소통하지 못한 점을 진심으로 사과 한다” 라고 입장을 밝혔다.

국회입법조사처는 2021년 2월 15일, 수많은 AI윤리 논란의 화두를 던지고 멈춰버린 ‘이루다’를 통해 인공지능 활용의 쟁점과 과제를 다룬 이슈와 논점 보고서를 발간했다. 국회입법조사처의 보고서를 바탕으로 이루다 이슈에 대해 정리해 보고자 한다.

이루다는 사람들이 언제나 편안하게 일상적인 대화를 나눌 수 있는 인공지능 채팅 서비스로, 10~30대가 실제 사용하는 표현들을 기계가 학습했다. 짧은 기간 동안 많은 이용자들의 관심을 모은 이루다가 발생시킨 논란은 크게 두 가지이다. 먼저, 혐오와 차별 논란으로 성소수자 등 젠더 이슈에 대한 편향성이 드러나면서 문제가 제기되었다. 또한, 이러한 편향성 문제를 살펴보는 과정에서 기계학습 데이터의 수집・활용의 부적절함이 더욱 심각한 개인정보 침해문제로 나타났다. 결국 이러한 논란의 확산으로 출시 20일 만인 1월 12일 서비스를 전면 중단했다.

사실 이러한 논란은 이전에 해외에서도 유사한 사례를 찾아볼 수 있다. 미국의 마이크로소프트사가 개발한 ‘테이(Tay)’도 편견・혐오적 메시지를 출력하여 공개한지 16시간 만에 서비스를 중단했으며, 페이스북과 판도라보츠의 AI 챗봇 간 온라인 채팅 배틀을 하는 과정에서 히틀러를 위대한 사람이라고 표현한 일도 있었다.

하지만 이루다 사태는 이러한 혐오와 편향성 논란을 넘어 개인정보 활용에 대한 사전동의 이슈도 불러왔다. 이루다 개발에 사용된 개인정보는 해당 회사의 다른 앱 ‘연애의 과학’에서 신규 서비스 개발 및 마케팅・광고에 활용될 것으로 고지하고 수집되었는데, 이를 이루다 개발에 이용한 것은 수집 목적에 범위를 넘어선 것으로 「개인정보 보호법」제15조, 제17조 및 제39조의3 위반이라는 지적이 있다. 또한 이루다의 대화중 실명, 주소 등이 그대로 노출됨에 따라 개인정보의 가명처리가 적절히 이루어졌는지에 대한 문제도 제기되었다.



□ 이루다가 불러온 AI윤리 이슈

20일 만에 중단된 이루다 서비스는 뜻밖에 AI윤리 이슈를 표면에 드러내는 성과를 이뤄냈다. 이루다 사태로 인해 그동안 조명 받지 못했던 AI윤리 이슈가 주목 받기 시작했으며, 이로 인해 주요 기업들의 AI윤리에 대한 각성을 불러 일으켰다. 한국언론진흥재단의 뉴스 빅데이터 분석툴인 빅카인즈를 통해 최근 5년간 54개 언론사의 ‘AI윤리’ 뉴스 키워드 트렌드 분석 결과 총 2,807개의 기사가 검색되었으며, 이루다 사태를 시점으로 AI윤리 아젠다 뉴스가 비약적으로 급증한 것을 확인 할 수 있다.

issues1
빅카인즈 ‘AI윤리’ 키워드 트렌드 분석(16년01월~21년01월)

이는 네이버와 카카오 등 AI 관련 주요 기업의 AI윤리에 대한 방침을 새롭게 다지는 계기를 마련하는데 큰 영향을 미쳤다고 볼 수 있다. 네이버는 서울대학교와 함께 ‘인공지능(AI) 윤리 준칙’을 만들어, 2월 17일에 공개했다. 총 5가지 항목으로 구성된 해당 준칙은 ▲사람을 위한 AI 개발 ▲다양성 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호와 정보 보안 등의 주제를 담고 있다. 카카오는 2018년 1월 국내 기업 중 최초로 ‘알고리즘 윤리 헌장’을 발표했으며, 전 직원을 대상으로 ‘카카오 크루가 알아야 할 윤리 경영’에 AI 알고리즘 윤리 교육을 실시했다.

물론 다소 추상적일 수도 있는 이러한 조치들에 대한 실효성 여부는 다시 생각해 볼 문제이지만, 그동안 기술의 완성도 측면에만 집중된 AI관련 이슈에서 벗어나, 윤리적 측면을 돌이켜 볼 수 있는 계기가 되었다는 면에서 충분히 긍정적이라고 할 수 있다.

이전에 다른 기술과는 달리 인공지능의 개발은 단지 기술의 완성도에 있지 않다는 것을 깨닫게 해주었으며, 인공지능의 기술적 역량과 더불어 윤리적 함량의 개발도 인간들이 풀어가야 할 숙제임을 확인시켜주었다. 스웨덴 철학자 닉 보스트롬(Nick Bostrom)은 자신의 저서 ‘슈퍼인텔리전스(Superintelligence: Paths Danger Strategies)’에서 “좋은 인공지능이란 인공지능 스스로 공손하고 예의 바르거나, 섬세하고 꼼꼼해서가 아니다. 만약 인공지능이 인간들이 의도한 ‘좋음(nice)’의 의미를 찾고 추구할 수 있다면, 이는 곧 프로그래머가 인공지능에게 의도한 바를 실행하도록 하는 명령을 내렸기 때문이다”라고 기술했다. 결국 인공지능이 구현할 윤리적 좋음도 인공지능을 개발하는 인간의 의도에 달려있다는 것이다.



□ 이루다 논란에 대한 의견

국회입법조사처는 보고서를 통해 이번 이루다 이슈를 계기로 앞으로 풀어나가야 할 과제로 세 가지를 제시하였다. 첫 번째는 개인정보 보호 법제의 개선으로, 개인정보처리자가 사전동의를 받기 위해 정보주체에게 제공하는 조건과 설명을 단순화・실질화하여 사전동의의 실효성을 높이고, 사후 통제를 강화해야 한다는 것이다. 두 번째는 현재 다소 추상적이고 선언적인 인공지능 윤리기준을 미국・유럽 등의 입법・정책을 참고하여 보다 구체화하고 검증 가능한 형태로 발전시킬 필요가 있으며, 마지막으로 인공지능 학습데이터 확보를 위한 정보의 노력 강화를 제시하였다.

실제로 2월 16일 김병욱 의원(더불어민주당)은 ‘이루다’ 사태의 재발 방지를 위한 개인정보보호법 개정안을 대표 발의했다. 개정안은 ▲민감정보 공개 위험성에 대한 고지의무 강화 ▲개인정보 처리방침 심사제 도입 ▲정보통신서비스 특례 정비로 강요된 필수 동의 관행 개선 ▲동의 받는 방법의 명료화 및 아동의 개인정보보호 강화 ▲과징금 규정 개편 등을 주요 골자로 한다. 김 의원은 데이터 유출이 사회적 물의를 일으킨 상황에서 법적 미비로 후속 조치가 전무할 경우 기업이 데이터를 활용한 기업 활동 시 활용 범위와 사업 모델 설정의 예측 가능성이 낮아지는 문제가 발생한다“라며 유럽연합 등 해외 주요국의 입법례를 참고하여 대표 발의했다고 설명하였다. 다만 개인정보를 오・남용할 경우 전체 매출액의 3%에 달하는 과징금을 부여하는 것에 대해 산업계에서는 내용이 과도하다는 우려가 나오는 중이다.

이러한 기존의 사후 처벌에 중점을 두는 접근 방식은 AI시대에서 효력을 발휘하기 힘들다는 의견도 있다. 이상직 변호사는 전자신문의 기획기고문에서 이루다 논란에 대한 세 가지 법률적 관점을 제시하였다. 먼저 이번 이루다 논란을 살펴보면 AI시장에서 기업과 고객의 자체적 자정능력이 제대로 작동하고 있음을 알 수 있다는 것이다. 비록 사전에 이루다 서비스가 가지고 있는 편향성 문제를 파악하지 못했지만, 서비스 개시 후 다수의 이용자들이 조기에 이슈를 제기하고, 이어 시민단체 등도 문제 제기를 하면서 20여 일도 안 되는 짧은 기간에 서비스 중단 결정을 이끌어 냈다. 이어 주요 ICT 기업들이 자체 윤리 기준을 대외에 선언하고 자정을 결의하는 일을 만들어 냈다. 큰 틀에서 보면 AI에 관한 이용자와 기업의 자체 자정기능이 작동했다고 볼 수 있다는 것이다. 또한 이러한 이슈가 발생함으로써 우려되는 점은 과도한 규제로 이어질 수 있다는 것이다. 이루다가 가져온 문제가 데이터, AI 기반으로 하는 미래로 가는 길을 포기하거나 제약해야하는 정도에 이르는 것인가를 생각한다는 것이다. AI는 글로벌 경쟁사회에서 우리가 살아남기 위해 반드시 성장시켜야 할 산업 분야이고, 이루다 서비스의 중단에 대한 아쉬움을 이야기하는 이용자들도 있음을 잊지 말고, 규범 통제를 거쳐 다시 시장에 나와야 한다는 것이다. 마지막으로 AI를 기반으로 하는 미래 사회는 AI의 작동이 딥러닝 기반을 통해 학습한 결과를 표출하는 것이므로 사후 처벌에 중점을 두는 기존의 접근 방법은 효력을 발휘하고 어려우며, 결국은 현장 중심의 자정능력을 높이고 자정기능을 작동시키는 규제 방향으로 나갈 필요가 있다는 것이다.

앞서 이야기 했듯이 이루다 이슈와 유사한 논란은 이미 해외에서 수차례 벌어진 일로써, AI시대로 가기위해서 꼭 거쳐 가야할 수많은 관문 중에 하나인 듯하다. 또한 앞으로도 수많은 우려와 논란을 불러일으킬 수 있을 수도 있다. 하지만 한 가지 명확한 것은 꼭 가야만 하는 길이라는 것이다. 이루다 이슈는 그동안 AI의 완성도 측면만을 바라보다 기술 이면의 부분을 돌아볼 수 있는 좋은 기회를 제공했으며, 이루다 서비스는 20여일 만에 중단됐지만, AI윤리에 대한 경각심을 일으키는 긍정적인 성과를 가져왔다. 과도한 우려는 과도한 규제로 이어질 수 있다. 어렵게 한걸음 내딛고 있는 AI시대로의 발걸음을 멈추지 않기 위해서는 중단이 아닌 돌파가 필요해 보인다.

위로