(사진=픽사베이)
(사진=픽사베이)

요즘 아침에 눈을 뜨면 가장 먼저 유튜브를 켠다. 유튜브 속 트레이너 선생님의 동작을 따라 스트레칭을 하는 것으로 하루를 시작한다. 일을 시작하면 유튜브에서 카페 분위기가 날 법한 음악이나 잔잔한 피아노 음악을 제공하는 채널을 틀어 둔다. 식사 중에도 유튜브를 시청한다. 잠에 들기 전에는 유튜브로 이것저것 시청하다 모닥불 소리나 빗소리를 재생해둔 채 잠을 청한다. 하루의 시작부터 끝까지 유튜브를 틀어 둔다고 해도 과언이 아니다. 나에게 유튜브는 생활밀착형 서비스가 된 지 오래다.

그런 유튜브가 언제부터인가 특정 아이돌 그룹 영상들을 내게 추천하기 시작했다. 그 이전에도 추천 동영상에 아이돌 그룹들에 관한 영상들이 없는 것은 아니었지만, 알지도 못 했던 특정 그룹에게 지속적으로 노출시키는 것은 처음이었다. ‘하고 많은 아이돌 중에 몬스타엑스가 당신의 취향인 것 같습니다. 한 번 보시겠어요?’라고 말하는 듯했다.

처음에는 각종 뉴스 영상들과 ‘공부할 때 좋은 음악’과 같은 제목들의 영상들 사이에 두엇 정도 추천되어 있을 뿐이었다. 그렇게 몇 번 동영상을 클릭해서 보다 보니 이제는 추천 동영상 목록에서 '몬스타엑스'는 높은 점유율을 보이게 되었다. 아이돌에는 크게 관심이 없던 내가 정신 차려 보니 출퇴근길에도 몬스타엑스의 노래를 듣고 있는 이 일련의 흐름이 굉장히 신선했다. 그래서 이 모든 것의 시작인 ‘유튜브 알고리즘’에 대해 좀 더 탐구해 보았다.

요즘 유튜브 영상들의 댓글란에서는 ‘알 수 없는 유튜브의 알고리즘이 여기로(해당 영상으로) 나를 이끌었다.’라는 댓글들을 심심찮게 볼 수 있다. 또는 특정 영상을 보다 여기까지 왔다는 댓글들 또한 자주 보인다. 그리고 이러한 댓글들은 많은 공감을 얻는다. 어떠한 일련의 흐름이 있는 듯한 추천 동영상 기준에 대해 유튜브는 간단한 설명을 해두었을 뿐, 자세한 내용을 공개하진 않았다. 기본적으로 이용자의 시청기록, 검색어, 구독 중인 채널에 기반해 영상을 추천한다. 그리고 다른 사람들이 해당 영상과 함께 시청한 영상을 추천하는 것 같다. 여기서 이용자가 클릭하고 시청하는 영상들이 늘어날수록 점점 더 이용자의 취향을 학습하리라는 것을 예상할 수 있다.

유튜브 알고리즘은 내게 방송국들이 업로드한 예능 또는 무대 영상들부터 몬스타엑스의 팬들이 손수 편집해 만든 영상들까지 다양한 영상들을 모아 주었다. 나는 그중에서 마음에 드는 제목이나 웃겨 보이는 썸네일을 보고 클릭하기만 하면 되었다. 무대 실력만큼 대단한 예능감을 자랑하는 그룹이라 추천된 영상들이 만족스러웠다. 하지만 어느 날 한국에서 한참 화제가 일고 있는 사안에 대한 영상이 나에게 추천되었다. 유튜브에서는 한 번도 검색한 적이 없지만, 페이스북에서 관련 기사를 클릭해 읽은 적이 있던 사안이었다. 유튜브에서 발생한 많은 음모론 때문에 심각한 문제가 되고 있기도 한 사안이었다. 누군지도 모르는 유튜버가 만든 영상이 나에게 추천된 것을 본 그 순간 굉장한 섬뜩함을 느꼈다. 나는 나에 대한 유튜브의 알고리즘이 그저 몬스타엑스를 보며 웃는 것에서 끝이 난 줄 알았는데 그게 아니었다. 

다큐멘터리 ‘소셜 딜레마’에서는 유튜브, 페이스북, 인스타그램 등등 소셜 미디어들의 알고리즘이 어떻게 사람들의 삶에 깊이 관여하고 있는지, 나아가 어떻게 사람들의 행동에 영향을 미치는지 그 기술의 부정적 파급 효과에 대해 다루고 있다. 내가 느꼈던 섬뜩함의 근원을 이 다큐멘터리가 잘 설명해 주고 있는데, 소위 우리가 말하는 ‘알 수 없는 알고리즘’은 내가 예상했던 것보다도 더 촘촘하고 정교하게 만들어진 것이었다. 계속해서 이용자의 취향과 행동을 학습하고 그에 입각해 단순히 광고나 영상을 추천하는데서 끝이 아닌, 이용자의 생각을 예상하기까지 한다. 

게다가 유튜브의 알고리즘은 ‘취향’에 입각한 추천을 한다지만, 그로 인해 편향된 정보를 제공하고 사람의 사고방식 또한 편향적으로 작용하게 할 수 있다. 이것은 그저 스며들게 하는 것이 아니라 헤어 나올 수 없도록 빨아들이는 늪과도 같아서 결국 온라인이 아닌 오프라인 상에서 또한 실질적 피해를 유발할 수 있다. 예를 들어 백신에 관한 불신이나 음모론 또한 같은 방식으로 편향된 사고를 유도한다. 가짜 뉴스 등의 유포 또한 용이하게 하며, 이로 인해 결국 실제 방역에 큰 영향을 초래한다. 제공되는 정보의 진실 및 사실 판단은 이용자의 몫이지만, 더 이상 이 판단이 의미가 없어지게 만들 만큼 알고리즘의 덫은 견고하다.

이러한 알고리즘으로 수익을 창출하고 있는 기업들에게 만족할만한 수준의 자정 작용을 기대하기는 어렵다. 법적 규제를 하려 해도 디지털상에 남겨지는 개인 정보의 이용 등에 대한 법적 근거는 기술의 발전에 비해 많이 뒤떨어져 있는 실정이다. 만약 법적 근거가 마련된다 해도 영상을 끊임없이 생산하고 게재, 유포하는 개인들의 모든 활동을 기술적으로 완벽히 규제하는 것은 어렵다. 때문에 알고리즘의 덫에서 한 발짝이라도 멀어지기 위한 개개인들의 노력이 필요하다. 어쨌든 알고리즘의 근본이 되는 영상들을 제작하는 것은 제작자로서의 개인들이다. 이에 제작자로서의 윤리의식이 요구된다. 과연 영상의 내용이 공익적 목적의 사실정보제공인지, 개인의 이익창출을 위한 자극적인 내용 또는 허위 사실 유포인지는 제작자 본인의 윤리의식에 의존할 수밖에 없다. 

시청자로서의 개인들 또한 영상을 시청 또는 공유할 때 영상에 내포된 정보가 잘못되지는 않았는지, 사실 여부를 한 번 더 확인하는 습관을 가져야 할 것 같다. 특정 사안에 대해 자신이 공신력 있는 기관이 아닌 특정 출처만을 신뢰하고 있지는 않은지, 듣고 싶은 것만 듣고, 보고 싶은 것만 보고 있지는 않은지 자문해 볼 필요가 있다. 편향되어 있다는 것을 자각하기 어려 울 수 있으므로, 검색 및 시청 기록을 주기적으로 삭제하거나 자동 삭제 기능을 켜 두는 것도 한 가지 방법이 될 수 있을 것 같다. 

반대되는 의견들에 의식적으로 접근해 보는 것도 방법이다. 상대방의 의견이 터무니없게 느껴지더라도 그 너머의 것을 보려 노력해야 한다. 왜 저런 생각을 하게 되었는지, 그럴 수밖에 없는 이유가 있었는지. 함께 사는 사회이기에 사회 구성원들이 함께 고민하고 서로에게 경청하며 의견의 간극을 줄이려 조금이라도 노력해야 한다. 그렇게 그 너머의 것을 보려 노력하다 보면, 분명 개인의 문제에서 끝날 것이 아닌 사회적 문제와 맞닿아 있는 것을 볼 수도 있을 것이다. 결국 기술의 한계는 기술을 사용하는 사람만이 해결할 수 있는 문제다. 우리는 사람이기 때문에 기술을 무분별하게 사용하는 것이 아닌 좀 더 귀중한 가치를 존중 할 수 있고 그 기술의 긍정적인 영향을 선하게 쓸 수 있을지도 모른다. 

 

 

 

 

 

김지민

영국 킹스 칼리지 런던에서 제주 4·3에 대해 연구 중인 김지민은 온 마을이 키운 박사 과정생이다. 이방인의 시선으로 제주와 런던을 잇는 [지민in런던]은 매월 둘째주 게재된다. 

 

 

저작권자 © 제주투데이 무단전재 및 재배포 금지