確保人工智慧符合人類最佳利益 美國學術機構4大領域探討AI道德爭議

2019-08-25 14:30

? 人氣

受制法律規範 檢視作業綁手綁腳

不過檢視AI技術是否有道德疑慮的程度仍有限,像是依據法院對《電腦欺詐和濫用法》(Computer Fraud and Abuse Act,CFAA)的解釋,破壞網站或網路平台的提供服務屬於犯罪行為,而研究人員在檢視網站AI系統是否具不平等設定時,通常都會導致服務暫停,但此舉可能有機會獲得解決,因為美國公民自由聯盟(ACLU)已對此提出告訴。

[啟動LINE推播] 每日重大新聞通知

代表部分記者和電腦科學專家的ACLU律師班達利(Esha Bhandari)2016年把美國司法部告上法院,控訴CFAA規定違憲,「這是走在最前端的案子......這攸關21世紀執行反歧視檢視的權利」。美國加州大學聖地牙哥分校(UCSD)通訊、科技與性別研究教授伊朗尼(Lilly Irani)直言:「我們不能只有會傷害大眾的系統,且只能不斷對其叫嚷抗議。」

人工智慧會未類帶來末日嗎?祖克柏與馬斯克持相反論調。(美聯社)
專家憂心企業光說不練,形成「道德洗白」現象。(美聯社)

擔憂光說不練 出現「道德洗白」現象

美國密西根大學道德、社會暨電腦中心(ESC)主任桑德維格(Christian Sandvig)則擔心出現「道德洗白」(ethics-washing)現象,即科技產業嘴上說要進行改變,但都只是報告寫得好看,實際上卻沒做多少,「讓一切看起來有轉變,表面上符合『道德』這個詞」。AI現代研究所並非孤軍奮戰,美國史丹佛大學也有相關機構「AI以人為核心研究所」(Institute for Human-Centered Artificial Intelligence)。

美國哈佛大學柏克曼網路社會中心(Berkman Klein Center)也關注AI對治理和道德層面帶來的影響,且該中心今(2019)年與麻省理工學院(MIT)媒體實驗室共同舉辦「大會」(Assembly),聚集政策制定者和科技專家一起研商AI道德方案,像是檢視AI系統設定是否具有偏見,以及對開發監控能力相關的AI研究所造成的風險,能夠負起責任。

喜歡這篇文章嗎?

簡恒宇喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章