Facebook在今年9月表示,其人工智慧系統在「主動刪除涉及仇恨言論的違規內容」時,效果已變得越來越好,現在它刪除的此類內容是2017年時的15倍。
上述文件是《華爾街日報》看到的大量內部溝通資料的一部分,它們提供了一個前所未有的視角,揭示了Facebook是如何為難地管理著那些決定其商業成敗的產品與體系。
《華爾街日報》的「Facebook文件」系列報導基於公司資料以及對現任及前任員工的採訪,它們講述了Facebook的規則如何偏袒精英群體;它的算法如何令矛盾加深;該公司早已知道販毒集團和人口販子在公開使用它的服務;以及Facebook如何成為反疫苗活動人士的工具,等等。《華爾街日報》曾有一篇文章講述Facebook旗下圖片分享平台Instagram對少女精神健康的影響,這篇報導促使美國參議院在9月下旬就相關問題舉行了一場聽證會。
這些文件顯示,Facebook的人工智慧系統應該檢測出但卻漏掉的內容包括,某人開槍打人的近景影片以及車禍影片中「斷肢和內臟的清晰畫面」。其他違反Facebook政策但同樣未被人工智慧識別的內容還包括針對變性兒童的暴力威脅。
Facebook說,自2016年以來它在「用戶安全和保障」方面的投入已達到約130億美元,在當時收入中的佔比接近4%。羅森說,2016年時,Facebook的內容審核體系主要依賴於用戶投訴,此後公司開發了人工智慧工具來篩查會引發反感的內容。
祖克柏2018年向一個參議院委員會表示,他有信心看到五至十年內,Facebook將利用人工智慧工具來主動檢測大部分仇恨言論。他當時說,「從長遠來看,構建人工智慧工具將成為識別及消除大部分這種有害內容的規模化運作方式。」
2020年7月,他向國會表示,「在打擊仇恨言論的問題上,我們已經開發出非常複雜的系統。」
一位Facebook高管在9月下旬的參議院聽證會上作證時說,公司正藉助人工智慧來阻止13歲以下的兒童使用Instagram。