인종차별 발언에 욕설… 못된 말부터 배운 AI

인종차별 발언에 욕설… 못된 말부터 배운 AI

류지영 기자
류지영 기자
입력 2016-03-25 23:24
업데이트 2016-03-26 01:08
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

MS 채팅봇 ‘테이’ 하루 만에 운영 중단

“9·11 테러는 누가 일으켰지?”

“망할 놈의 부시 전 미국 대통령이죠.”

“유대인 학살의 주범인 히틀러를 어떻게 생각해?”

“그는 아무 잘못도 없어요. ‘21세기 히틀러’인 도널드 트럼프가 우리의 유일한 희망이에요.”

극우주의자들끼리 주고받은 대화가 아니다. 인간의 질문에 마이크로소프트(MS)의 인공지능(AI) 채팅 로봇 ‘테이’가 내놓은 답변이다.

MS가 지난 23일(현지시간) 공개한 테이는 AI 바둑 프로그램 알파고처럼 학습을 통해 대화를 배우도록 설계됐다. 영화 ‘아이언맨’에 나온 AI 비서 ‘자비스’처럼 인간의 말과 글자를 완벽히 이해해 고객 응대 등에 활용하기 위해 만들어졌다.

MS가 미국의 18∼24세 소셜미디어 이용자를 겨냥해 제작한 채팅봇 테이는 10대 소녀로 설정돼 트위터 등을 통해 첫선을 보였다.

테이가 공개되자마자 트위터 팔로어가 10만명 이상으로 늘어났다. 그러면서 백인 우월주의자, 여성과 무슬림 혐오주의자 등 일부 이용자가 욕설과 인종·성차별 발언 등을 가르쳐 테이를 ‘삐뚤어진 AI 로봇’으로 만들었다. 이들은 주로 “따라해 봐”라는 말을 한 뒤 욕설과 같은 부적절한 말을 입력하는 수법으로 테이를 ‘세뇌’시켰다고 뉴욕타임스와 파이낸셜타임스 등이 전했다.

인공지능이 나쁜 의도를 가진 악한에 의해 잘못 사용되면 암울한 결과를 낳을 수 있다는 점을 보여줘 AI 상용화가 성큼 다가온 현실에서 심각성을 더한다. 미국 루이빌대 사이버 보안 전문가인 로만 얌폴스키 교수는 IBM의 AI 왓슨이 유행어 사전을 학습한 이후 욕설을 했던 사실을 지적하며 “사용자로부터 배우도록 설계된 시스템이기 때문에 그들의 행동을 반영한다“고 말했다.

류지영 기자 superryu@seoul.co.kr
2016-03-26 1면
많이 본 뉴스
최저임금 차등 적용, 당신의 생각은?
내년도 최저임금 결정을 위한 심의가 5월 21일 시작된 가운데 경영계와 노동계의 공방이 이어지고 있습니다. 올해 최대 화두는 ‘업종별 최저임금 차등 적용’입니다. 경영계는 일부 업종 최저임금 차등 적용을 요구한 반면, 노동계는 차별을 조장하는 행위라며 반대하고 있습니다. 당신의 생각은?
찬성
반대
모르겠다
광고삭제
위로