<2회> AI생태계의 ‘유령 청소부’
세라 로버츠 UCLA 교수 인터뷰“인공지능(AI) 만능주의에 빠지면 안 됩니다. AI 알고리즘 뒤에 있는 사람들의 실체를 인정하고 그들의 건강과 안전을 보장하는 것이 AI 시대에도 인간의 존엄성을 잃지 않는 첫걸음입니다.” 서울신문은 AI 기술과 뉴미디어가 현실 사회와 만나는 접점을 집요하게 탐구해 온 미국의 미디어학자 세라 로버츠 교수를 지난달 25일 화상으로 인터뷰했다. 그는 저서 ‘비하인드 더 스크린’을 통해 콘텐츠 모더레이터의 실체를 세상에 드러냈다.
로버츠 교수 제공

미국의 미디어학자 세라 로버츠 교수가 지난달 25일 서울신문과 화상 인터뷰를 갖고 디지털 청소부 역할을 하는 ‘콘텐츠 모더레이터’의 실체와 열악한 노동환경에 대해 이야기했다.
로버츠 교수 제공
로버츠 교수 제공
규제 밖 뉴플랫폼의 실체
치열한 경쟁 탓 쓰레기 콘텐츠 늘어
AI 환상 커질수록 존재 숨기기 급급
‘부적절’ 판단하려면 인간에 의해 학습-어떤 계기로 ‘비하인드 더 스크린’을 쓰게 됐나요.
“거대 테크 기업에 유저(사용자)는 곧 돈입니다. 유저 끌어모으기 경쟁이 치열해질수록 쓰레기 같은 콘텐츠도 많아졌어요. 소셜미디어(SNS)라는 거대한 스크린 뒤에서 쓰레기를 청소하는 사람도 더욱 많이 필요해졌습니다. AI에 대한 환상이 커질수록 ‘디지털 쓰레기 청소부’는 점점 더 어두운 곳으로 밀려났습니다. 그걸 경고하고 싶었어요.”
-거대 플랫폼 기업들은 왜 콘텐츠 모더레이터의 존재를 숨길까요.
“유튜브, 틱톡, 인스타그램, 페이스북과 같은 SNS는 그 자체가 상품이고 브랜드입니다. 이 기업들은 저마다 ‘우리 플랫폼에서는 표현의 자유를 만끽할 수 있다’고 선전합니다. 또 ‘안전하고 깨끗하다’고 주장하죠. 하지만 누군가 청소를 하지 않으면 플랫폼에 온갖 오물이 밀려듭니다. 성착취물, 딥페이크물, 참수 영상, 자살 영상, 인종차별, 여성혐오…. 이런 유해물을 사람이 일일이 걸러낸다고 하면 누가 그 플랫폼에 들어오겠습니까. 이들의 존재가 부각될수록 플랫폼의 매력은 떨어집니다.”
-콘텐츠 모더레이터들의 검수 작업이 표현의 자유를 제한하는 측면이 있는 건 사실 아닌가요.
“테크 기업은 알고리즘을 활용해 유저가 좋아할 만한 콘텐츠를 계속 보여 주며 소비 욕구를 부추깁니다. 이 기업들이 광고를 위해 특정 콘텐츠를 선택적으로 띄우거나 삭제하는 걸 통상적인 ‘검열’로 볼 수 있을까요. 이건 표현의 자유나 검열과는 완전히 다른 차원의 문제입니다. 브랜드 관리일 뿐이죠.”
-AI의 발달로 사람의 손을 거치지 않아도 유해 콘텐츠를 걸러낼 수 있지 않나요.
“아무리 AI가 발달해도 무엇이 나쁜지에 대해서는 인간의 판단이 필요해요. 기존 알고리즘을 우회하는 새로운 내용, 형태의 콘텐츠가 계속해서 올라오기 때문이죠. AI가 특정 콘텐츠를 보고 ‘이건 부적절하다’고 판단하기까지는 인간에 의한 학습이 필요합니다. 머신러닝을 위한 ‘나쁜 데이터’를 준비하는 건 결국 사람입니다.”


‘콘텐츠 모더레이터’ 고충
고통 숨기는 건 기밀 유지 조항 때문
상상 이상의 콘텐츠로 술 중독까지
안전한 노동환경·보수·권리 보장을-교수님이 만난 콘텐츠 모더레이터들의 고충은 어떠했나요.
“많은 모더레이터가 ‘가장 충격적인 경험이 무엇이었는지 더이상 묻지 말라’고 합니다. 상상 그 이상의 콘텐츠를 보기 때문이죠. 그리고 ‘이젠 무덤덤해졌다’고 말하는 분이 많습니다. 덤덤해졌다는 건 괜찮아졌다는 게 아닙니다. 오히려 그만큼 마음의 병이 깊어졌다는 뜻입니다. 어떤 분은 알코올에 의존해 일한다고 했고, 어떤 분은 충격적인 영상이 떠올라 자신도 모르게 파트너를 소파에서 밀쳐 냈다고 했어요. 이들이 고통을 숨기는 건 기밀 유지 조항에 묶여 있기 때문입니다.”
-미국도 기존 산업에 비해 AI 등 신기술 분야엔 아직 관련 제도와 법이 정비되지 않았나요.
“뉴미디어와 뉴플랫폼 산업에 대한 규제가 거의 없어요. 빅테크 기업이 하는 일은 너무나 창의적이고 중요하기 때문에 그들의 자유를 지켜 줘야 한다는 신화가 강력하게 작동합니다. 전통 미디어 회사들은 규제를 받지만 유튜브와 같은 새로운 미디어에는 규제가 거의 없어요. 원인은 1997년 제정된 ‘통신품위법’에 있어요. 이 법 230조는 인터넷 통신회사는 콘텐츠에 대해 법적 책임을 지지 않는다고 명시하고 있어요. 제정 당시 인터넷 통신회사는 단순히 정보의 전달자였기 때문입니다. 그런데 지금은 메타, 구글과 같은 새로운 형태의 인터넷 통신회사들이 무수히 많은 콘텐츠를 만들고 있어요. 그래도 통신품위법에 따라 아무런 규제를 받지 않아요. 자신의 플랫폼에 접속한 사람이 누구인지, 어디에 사는지, 어떤 추천물을 좋아하는지 훤히 알고 있는데 그들이 유포하는 콘텐츠에 아무런 책임을 묻지 않는 게 과연 정당할까요.”
-저희가 취재한 바로는 모더레이팅과 라벨링 작업이 동남아 등으로 대거 외주화한 상태였는데요. 이 현상을 어떻게 이해해야 할까요.
“노조의 힘이 약하거나 정부가 노동권에 큰 신경을 쓰지 않는 곳으로 옮겨가고 있어요. 인건비가 싼 것도 중요한 원인이죠. 유럽이나 미국의 경우 자국에서 모더레이팅 업무를 유지하더라도 실제 이 일을 하는 이들은 대부분 이민자입니다. 독일에서는 콘텐츠 모더레이터도 다른 노동자처럼 노동권을 누릴 수는 있어요. 그런데 독일인이 이 업종에 종사하는 경우는 거의 없어요. 폴란드, 루마니아 등에서 온 이민자들이 주로 이 일을 담당해요.”
-외주화와 계층화가 동시에 일어나는 건가요.
“그렇습니다. 다국적 기업은 늘 인건비가 싼 곳으로 공장을 옮겼고 고급 기술과 저급 기술을 나누는 계층화 전략을 써 왔어요. 그런데 AI 시대에는 새로운 특징이 있어요. 제아무리 뛰어난 기술이나 심오한 인문학적 성과도 곧 하찮은 것이 된다는 사실입니다. AI를 더 똑똑하게 만들기 위해 사람이 쌓아 올린 모든 것이 공짜로 학습 데이터의 수단이 되고 있죠. AI 발달 과정이 인간 평가절하 과정이 돼서는 안 됩니다.”
-AI 시대에도 인간 노동이 존중받으려면 어떻게 해야 할까요.
“AI 시대의 규칙과 거버넌스(지배구조)를 과연 누가 만드는가를 끊임없이 물어야 합니다. 지금은 소수 빅테크 기업이 만들고 있어요. 사람이 공장에서 일하다가 다치면 생산라인을 일단 멈추지만 온라인 플랫폼에는 그런 제동장치가 없어요. AI 기업이 더 많은 자유를 누리고 더 많은 자본을 흡수하고 있지만 책임은 지지 않아요. AI 시대에도 안전한 노동환경이 보장돼야 하고, 합당한 보수가 제공돼야 하며, 정당한 권리가 부여돼야 합니다. 이런 일은 AI가 해 주지 않아요. 결국 사람이 해야 합니다.”
● 세라 로버츠 교수는
미국 캘리포니아대 로스앤젤레스(UCLA)의 세라 로버츠 교수는 소셜미디어(SNS) 플랫폼 뒤에서 이뤄지는 사람의 숨겨진 노동을 체계적으로 연구한 최초의 학자다. 2019년 발간한 저서 ‘비하인드 더 스크린’에서 유튜브, 트위터(현 X), 페이스북 등에 올라오는 온갖 유해 콘텐츠를 걸러내는 전 세계 작업자들의 실태를 폭로했다. 유럽연합(EU)과 미국 의회에서 콘텐츠 모더레이터들의 정신건강 보호, 노동조건 개선, 플랫폼 기업과 인공지능(AI)의 책임성 강화 방안을 조언하고 있다.
■기획취재팀
팀장 이창구
장진복 김중래 명종원 이성진 기자
2025-02-24 4면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지