殺手機器人的潛在威脅:《情感運算革命》選摘(3)

2018-01-19 05:10

? 人氣

作者認為,為無人飛機和機器人加入情緒覺察,可以降低平民傷亡,或是避免在戰鬥中遭到濫用,但是許多時候具備情緒的自主武器說不定一樣糟糕。(Alex Evers@Wikipedia / CC BY 2.0)

作者認為,為無人飛機和機器人加入情緒覺察,可以降低平民傷亡,或是避免在戰鬥中遭到濫用,但是許多時候具備情緒的自主武器說不定一樣糟糕。(Alex Evers@Wikipedia / CC BY 2.0)

近幾年來,軍方一直在實驗許多科技,這些技術或許能從提升情緒覺察中獲益,尤以無人飛機與機器人為最。只是無人飛機或無人飛行載具(unmanned aerial vehicle, UAV)的概念已經存在超過一個世紀了,卻直到過去二十年才開始廣泛用於戰爭中。在此同時,一系列的機器人和其他自主武器系統(autonomous weapons systems, AWS)也開發用於各種軍事行動。這種逐漸轉向仰賴自主或半自主工具與武器的變化,引來最終將發展「殺手機器人」的疑慮。

儘管還需時數年,但是對這種潛在威脅的警覺,足以讓軍方內部對可能的利益與風險持續對話,同時也有成熟的公民運動尋求制定國際法以禁止這類武器。國際機器人武器控制委員會(International Committee for Robot Arms Control, ICRAC)就是其中之一,該組織認為我們只有稍縱即逝的機會能遏制這個威脅,否則將悔之晚矣。國際機器人武器控制委員會是一個稱為「阻止殺手機器人運動」(Campaign to Stop Killer Robots)的非政府組織之非正式成員,企圖預先禁止全世界的致命性自主武器。

這類武器的主要疑慮之一,是缺乏同理心和情緒智慧。諾埃爾‧夏基(Noel Sharkey)是英國雪菲爾大學(University of Sheffield)的人工智慧與機器人學教授,同時也是國際機器人武器控制委員會的創辦人之一。夏基指出:

這不只是視覺辨別的問題,還要看涉及的推論。我有一個軍方提供的絕佳例子:幾個海軍陸戰隊隊員將一些叛亂分子圍堵在巷子裡,準備殺了他們。正當海軍陸戰隊隊員舉槍正要射擊時,突然注意到叛亂分子抬著一具棺材,於是放下槍,脫下頭盔,並且恭敬地讓對方通過。因為不可以殺害葬禮中的人,如果他們在這時候殺死叛亂分子,就真的會有麻煩了。但是,換成機器人的話,大概就會直接開槍射殺。也許你能將機器人的程式設定為在這些情況下不能開槍,但是如此一來,所有叛亂分子到哪裡都會帶著棺材了。

這又回到易壞軟體的問題。如果必須將某種情況的條件反應硬寫進程式中,但這種情況又不是完全可以預期的,那麼長期下來是行不通的。最後不是會發生預期範圍以外的狀況,就是會有類似人的因素企圖利用這樣的程式設計。情緒智慧和為周遭不同元素及情況賦予價值的能力,對於解決這個問題大有裨益,特別是當如果一個智慧體不但能確立自身的價值,還能為所有參與的各方賦予價值時。換句話說,該智慧體是否展現心智理論,並表現同理心。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章