본문 바로가기
카메라사진/사진에관한글

역사를 바꾼 사진을 노출이 심하다며 삭제한 페이스북

by 썬도그 2016. 9. 10.
반응형

몇달 전에 구글로부터 메일이 왔습니다. 콘텐츠를 생산하는 분의 자유의지를 최대한 존중한다면서 특정 게시글을 지적하면서 혐오감을 조장할 수 있으니 광고주들을 위해서라도 글을 내려달라는 정중한 부탁이었습니다. 구글이 부탁한 그 글은 한 남성인권을 주장하다 한강 다리에서 투신했다가 사망한 분이 다리 난간을 잡고 떨어지는 순간을 담은 사진입니다.

분명, 자극적일 수 있는 사진입니다. 그러나 그 사진은 하나의 기록물이고 여러가지 주장이 나오지만 우리가 기억해야할 중대한 사건 중 하나입니다. 실제로 지금까지도 그 분을 기리고 추앙하는 남자들이 많을 정도로 이슈도가 아직도 높습니다. 그런데 이와 비슷한 일이 해외에서도 일어났습니다. 


세상을 바꾼 네이팜탄 소녀 사진을 삭제한 페이스북

8월 말 노르웨이 작가 '톰 에이란'은 '전쟁의 공포'라는 글을 페이스북에 올리면서 역사를 바꾼 7장의 전쟁 사진 중 하나라며서  네이팜탄 소녀 사진을 올렸습니다.  사진을 처음 본게 중학교 때 였습니다. 전 이 사진 보고 기겁을 했습니다. 벌거 벗은 소녀가 울면서 나가오는 모습에 경악을 했습니다. 얼마나 뜨거웠으면이라는 안타까움과 함께 전쟁에 대한 공포를 느꼈습니다.

이 사진은 미국이 베트남에서 철수하는 큰 계기가 된 사진 중 하나입니다. 지금과 달리 베트남 전 당시 미군은 사진기자의 사진을 검열하지 않았습니다. 그래서 많은 참혹한 전쟁 사진들이 미국인들의 아침 식탁 위에 올려진 신문에 실리게 되었고 몇몇 경악스러운 사진은 미국에서 반전 운동을 일으키는데 큰 역할을 합니다. 

분명, 사진 자체만 놓고 보면 얼굴을 돌리게 하는 사진입니다. 그러나 우리는 이 현실을 목도해야했습니다. 베트남에서 어떤 일이 일어나는 지 알아야 했고 그 결과 미국은 반전 여론에 밀려 베트남에서 철수를 합니다. 이후, 미국은 전쟁터에서 사진을 찍는 다큐 사진작가나 사진기자의 사진을 검열하고 있습니다. 그래서 우리가 잔혹한 아프카니스탄이나 이라크 사진을 볼 수 없는 이유죠. 

이 사진은 44년 전 베트남에서  AP 소속의 Nick Ut가 촬영한 사진으로 세계 100대 보도사진에 항상 들어가는 사진입니다. 세상을 바꾼 몇 안 되는 사진 중 하나죠. 따라서 이 사진은 많은 사람들이 익히 잘 알고 있습니다. 그런데 이 사진을 어린이 누드라면서 페이스북이 삭제를 했습니다. 


이에 노르웨이 최대 일간지인 아프텐포스텐이 이런 페이스북의 조치를 강력하게 비난을 했습니다. 
또한, 이 신문사의 편집장은 '마크 저커버그 페이스북 창립자'에게 공개 질의서를 보냈습니다. 그리고 그 공개 질의서를 1면에 노출 했습니다. 


또한 노르웨이 총리인 에르나 솔베르 총리도 자신의 페이스북에 이건 명백한 표현의 자유를 침해한 행동이면서 역사의 가르침을 막는 페이스북의 행동을 강력하게 항의하면서 다른 유명 사진을 블랙마크로 처리하면서 페이스북의 행동을 강한 어조로 비판했습니다.

이런 행동을 한 이유가 뭔지 정확한 것은 모르겠지만 아마도 수 많은 불법, 유해 콘텐츠를 자동화 기술로 걸러내기 때문에 사진의 맥락을 모르는 봇이 자동으로 걸러낸 것 같기도 합니다. 우리 인간은 이 사진이 소녀의 나체 사진이지만 전쟁의 공포를 담고 있는 역사적인 전쟁 사진임을 잘 알기에 이 사진을 보고 음란함 대신 전쟁의 공포를 느낍니다. 

그러나 봇은 그런 걸 모르죠. 그러나 봇이 자동으로 필터링 한 것이 아니라는 생각이 더 강합니다. 왜냐하면 제가 페이스북 코리아에 수 많은 음란 콘텐츠를 신고해도 99%는 괜찮다고 판단을 합니다. 분명히 음란 싸이트 광고를 하는 자극과 노출이 심한 사진이지만 페이스북은 괜찮다고 하네요. 이러니 지금은 음란물 올리는 페이스북 계정 신고도 안 합니다. 해봐야 계정 박탈 처리 안 하니까요. 

아! 유일하게 제 신고를 받아준 경우가 있는데 한 연예인을 사칭한 페이스북 계정 신고했더니 그건 바로 삭제해주더군요.  몇 주전에 왜 페이스북코리아는 신고 처리를 늦게하고 제대로 처리를 안 해주냐고 질문이 담긴 기사를 봤는데 우리가 페이스북에 신고하는 그 콘텐츠를 판별하는 사람들은 한국이 아닌 아일랜드에 있다고 하네요. 아일랜드에서 한국에서 신고한 콘텐츠를 판별해서 삭제할 것은 삭제하고 괜찮은 것은 그냥 둔다고 합니다. 한국인 직원이 있고 수시로 페이스북코리아 직원과 신고나 최근 이슈에 대한 대화를 한다고 하는데 그 먼 곳에서 뭘 재대로 맥락을 파악하고 삭제를 할까요?

이러니  '페이스북코리아 고객센터'를 최악의 고객센터라고 하죠


각설하고 이런 노르웨이 총리까지 나서서 항의하자 페이스북 대변인은 네이팜탄 소녀 사진이 무척 상징적이고 역사적인 사진임을 알고 있지만 어떤 경우는 아동 누드 사진을 허용하고 어떤 경우는 허용해야 할지 구분하기 어렵다는 정말 멍청한 대답을 합니다. 

아니! 딱 보면 모릅니까? 이런 식이면 중세시대 그려진 수많은 누드에 가까운 그림들은 모두 음란 그림입니까? 사람이란 무릇 맥락을 알아야죠. 이건 마치 노무현 정권 때 한 한나라당 여성의원이 한 방송사가 유명 명화에 자신의 얼굴을 합성했다면서 여성에게 수치심을 느끼게 했다면서 강력하게 항의하자 방송사가 사과하고 그 프로그램 폐지시킨 모습이 생각나네요. 그 명화는 낙원에게 쫒겨나는 아담과 이브를 그린 그림인데 중세시대 그림이 다 그렇듯 두 사람은 벗고 있었습니다.  이는 구글도 마찬가지입니다. 어떤 사안을 비판하기 위해서 관련 사진을 올리자 맥락 파악은 안 하고 사진 내리라고 경고를 하더군요. 

이런 멍청한 사람들이 권력을 쥐고 있는 것이 서글프네요. 맥락은 파악 안하고 기계적인 삭제와 판단을 하는 세계적인 IT기업? 한편으로는 서글프네요. 이런 강력한 항의에 페이스북은 지난 9일 역사적이고 세상을 변화 시킨 그 중요성을 인식한다면서 삭제한 게시물을 되살렸습니다.

참 멍청한 기업입니다. 이래서 검열관은 지극히 평범한 상식을 가지고 맥락을 잘 이해하는 사람이 해야 합니다. 같은 노출 사진도 어떤 사진은 음란함을 유발하지만 어떤 사진은 세상을 변화 시키는 힘을 가지고 있습니다. 그걸 이해 못한다면 그게 바로 봇 아닌가요? 봇 같은 행동 하지 않는 페이스북이 되었으면 합니다.

반응형