國際 財經 科技 下班經濟學 財經頭條 1%Style 華爾街日報選文 AI

華爾街日報》臉書稱「AI將淨化網路環境」,公司內部報告對此存疑

臉書執行長祖克柏。(AP)

Facebook Inc.高管一直以來都表示,人工智慧將解決長期困擾公司的難題,它可以防止那些被視為仇恨言論和極度暴力的內容出現在平台上,還能限制未成年人使用公司的各個平台。

但《華爾街日報》(The Wall Street Journal)看到的內部文件顯示,距離實現這樣的願景,還有很長的路要走,比Facebook高管們所預示的要遙遠得多。Facebook的人工智慧無法穩定地識別第一人稱射擊影片和種族主義言論,有個值得一提的例子是,AI難以分辨鬥雞和車禍畫面的區別,讓公司內部研究人員困惑了好幾周。


本文為風傳媒與華爾街日報正式合作授權轉載。欲看更多華爾街日報全文報導,請訂閱特別版華爾街日報VVIP方案,本方案僅風傳媒讀者專屬,以低於原價3折以下之全球最優惠價,即可無限暢讀中英日文全版本之華爾街日報全部內容。

上述文件還顯示,在涉及仇恨言論的問題上,Facebook員工估計,公司只刪除了一小部分違規內容——他們說,刪掉的部分在此類帖子中大概只佔到低個位數的比重。當Facebook的算法無法確定某些內容是否因違規而應被刪除時,平台會減少向用戶展示這些內容的頻率——但發布這些內容的賬號卻不會受到懲罰。

員工們正在研究Facebook對自身的內容規定執行得如何,Facebook在公司內部以及社區守則等公開文件中對這些規定進行了詳細闡述。

《華爾街日報》看到的文件還顯示,針對用戶對仇恨言論的投訴,Facebook兩年前減少了人工審核員處理這類投訴的時間,並進行了其他調整,減少了整體投訴數量。如此一來,該公司在執行自身規定時變得更加依賴人工智慧,並且在公開數據中誇大了這項技術看似成功的運用。

根據這批文件,公司內部有專人負責淨化Facebook平台,不讓Facebook定義的攻擊性或危險性言論出現,而這些員工承認,Facebook對此類內容的篩查還遠遠達不到可靠的程度。

一位高級工程師兼研究科學家在2019年年中的一份報告中寫道,「問題在於,我們現在沒有、而且可能永遠也不會有一個模型可以阻止哪怕僅是大部分有損誠信的內容,尤其是在敏感領域。」

據他估計,平台上所有違規的仇恨言論中,Facebook自動系統刪除的帖子產生的閱讀量只佔到其中的2%。「近期的估算顯示,除非策略有重大調整,否則中短期內這一比例很難提升到10-20%以上。」他寫道。

今年3月,另一支Facebook團隊也得出類似結論,按照他們的估計,自動系統刪除的仇恨言論的閱讀量在平台上所有此類言論中僅佔到3%-5%,而針對Facebook在暴力和煽動性言論方面的規定,系統刪除的此類違規帖比例更低,僅佔0.6%。

Facebook發言人安迪·斯通(Andy Stone)表示,這些百分比數字指的是使用人工智慧刪除的帖子,其中沒有包括Facebook為減少仇恨言論的觸達量而採取的其他舉措,例如在動態消息中將它們放到靠後的位置。Facebook稱,通過這種方式,違規內容的影響面一直在縮小,這也是公司認為最重要的執行標準。

迄今為止,人工智慧交出的成績單與Facebook高管們對它展現出的信心形成了鮮明反差,該公司首席執行官馬克·祖克柏(Mark Zuckerberg)曾表示,他預計Facebook將在2019年底之前利用人工智慧監測「絕大部分有問題的內容」。

該公司經常說,它撤下的幾乎所有仇恨言論都是人工智慧發現的,而且是在用戶投訴之前就檢出了。它將這一數字稱為「主動檢出率」,截至今年年初,該數字已接近98%。

民權組織和學界人士一直懷疑人工智慧的檢出率是否代表著切實的進步,他們指出,它似乎與用戶體驗存在差異,而且也與他們的研究結論不符。民權組織Color of Change主席拉沙德·羅賓遜(Rashad Robinson)說,「他們永遠不會展示他們的工作。」該機構去年參與組織了廣告商對Facebook的抵制活動,因其認為該公司未能有效控制仇恨言論。

「我們問道,分子是什麼?分母是什麼?你們是怎麼得出那個數字的?」他說,「然後它就像蟋蟀一樣跳來跳去,閃爍其詞。」

Facebook誠信事務負責人蓋伊·羅森(Guy Rosen)在一次採訪中說,更重要的是要看看其他數據,通過它們可以發現,在用戶在平台上看到的所有內容中,仇恨言論的佔比正在降低。根據Facebook就政策執行問題發布的最新公開報告,該公司稱,今年二季度時,Facebook上的每一萬次內容瀏覽中,有五次含有仇恨言論,與2020年中期的每一萬次大約含有10次相比,已有所改善。

「縮小違規內容的影響面是最重要的標準,它代表的不是我們拿掉了什麼,而是我們略過了什麼,以及用戶看到了什麼,這是我們要把握的首要標準。」羅森說,「在縮小負面影響的問題上,我們一直做得不錯,它也是我們真正關注的。」

Facebook發言人斯通說,公司高層在公開言論中越來越強調這一標準。他說,之所以能有這樣的進步,很大程度上是因為人工智慧將可疑內容放在了靠後的位置,從而減少了曝光量。

羅森還指出,《華爾街日報》看到的文件已經過時,只不過Facebook當初在思考利用人工智慧來審核內容的問題時,它們曾經提供了參考而已。

Facebook在今年9月表示,其人工智慧系統在「主動刪除涉及仇恨言論的違規內容」時,效果已變得越來越好,現在它刪除的此類內容是2017年時的15倍。

上述文件是《華爾街日報》看到的大量內部溝通資料的一部分,它們提供了一個前所未有的視角,揭示了Facebook是如何為難地管理著那些決定其商業成敗的產品與體系。

《華爾街日報》的「Facebook文件」系列報導基於公司資料以及對現任及前任員工的採訪,它們講述了Facebook的規則如何偏袒精英群體;它的算法如何令矛盾加深;該公司早已知道販毒集團和人口販子在公開使用它的服務;以及Facebook如何成為反疫苗活動人士的工具,等等。《華爾街日報》曾有一篇文章講述Facebook旗下圖片分享平台Instagram對少女精神健康的影響,這篇報導促使美國參議院在9月下旬就相關問題舉行了一場聽證會。

這些文件顯示,Facebook的人工智慧系統應該檢測出但卻漏掉的內容包括,某人開槍打人的近景影片以及車禍影片中「斷肢和內臟的清晰畫面」。其他違反Facebook政策但同樣未被人工智慧識別的內容還包括針對變性兒童的暴力威脅。

Facebook說,自2016年以來它在「用戶安全和保障」方面的投入已達到約130億美元,在當時收入中的佔比接近4%。羅森說,2016年時,Facebook的內容審核體系主要依賴於用戶投訴,此後公司開發了人工智慧工具來篩查會引發反感的內容。

祖克柏2018年向一個參議院委員會表示,他有信心看到五至十年內,Facebook將利用人工智慧工具來主動檢測大部分仇恨言論。他當時說,「從長遠來看,構建人工智慧工具將成為識別及消除大部分這種有害內容的規模化運作方式。」

2020年7月,他向國會表示,「在打擊仇恨言論的問題上,我們已經開發出非常複雜的系統。」

一位Facebook高管在9月下旬的參議院聽證會上作證時說,公司正藉助人工智慧來阻止13歲以下的兒童使用Instagram。

我要發風

風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

關鍵字:

熱門新聞

今日精選

本週最多人贊助文章

您也可能喜歡這些文章