臉書口口聲聲說,他們的目標是要保護用戶,但《紐時》發現,在巴基斯坦的審查守則中,臉書警告審查員不要做出任何損害臉書名聲,甚至可能讓公司陷入司法風險的「公關危機」。
Sifting through @nytimes report on internal Facebook guidelines for content moderation is a chilling look at a for-profit company's power over free speech. One of many examples: guideline for India&Pakistan calling for removal of content to avoid blocking. https://t.co/4EBmQRlgqU pic.twitter.com/iHRRVDcf4e
— mahsa alimardani (@maasalan) 2018年12月28日
審查員壓力大 8至10秒決定貼文生死
第一線的臉書審查員肩負壓力也相當大,儘管臉書指出,審查員有充足的時間來審查貼文,沒有設定每人的審查配額。但臉書審查員向《紐時》表示,他們每天面臨審查上千則內容的壓力,看到不懂的語言,只能仰賴Google翻譯。每則貼文平均僅能審查8至10秒,影片則能審查久一點。
對於部分審查員來說,審查員的薪水與審查時間和正確度有關,若審查員發現網路上的新威脅,或審查守則的漏洞,鮮少有通報臉書的機制,審查員通報的動機也不高。許多審查員不堪工作負荷,僅做了幾個月就離職。
"5 Takeaways From Our Facebook Moderator Story" by AODHAN BEIRNE via NYT The New York Times https://t.co/fQ8NbHI6Nd
— GeorgeBossman (@georgebossman) 2018年12月27日
臉書高層辯解:即使99%正確,還是會犯下許多錯誤
審查員向《紐時》挫折地表示,臉書的審查守則並非全然合理,有時還不能將可能引發暴力的貼文下架,「你感覺你的不作為,殺害了某些人。」臉書動態時報(News Feed)的高階工程師莎拉.蘇(Sara Su)則回應:「我們的職責不是糾正其他人的言論,不過我們確實想執行我們平台上的社群標準。當你在我們的社群裡時,我們希望確保言論自由與安全的平衡。」
臉書全球政策管理長畢克特(Monika Bickert)則解釋,臉書的主要目標是防止危害,聲稱臉書在該處已取得很大程度的成功,但無法盡善盡美。「我們每天有數十億則貼文,我們正在運用我們的科技系統辨認更多潛在的威脅。在此規模下,即便你有99%判斷正確,你還是會犯下許多錯誤。」