第四回合:科技監控的責任倫理
哈拉瑞接下來談到科技監控與演算法的責任倫理問題。他提出一個具體的情境,當14歲的他走在沙灘上、或者看手機影片,演算法很快就會搞清楚他看的是帥哥還是美女,然後透過這一點來操縱他。比方說可口可樂透過對他投放性感男人的廣告,誘使他購買他本來不需要的東西,比方說可口可樂。哈拉瑞認為,真正的問題不在於有人透過演算法遂行某種目的,而在於如果演算法並無惡意,也不是為某個組織服務,但當演算法知道關於14歲哈拉瑞還不知道的、關於自己的某些事實,這時候演算法該怎麼做才對。
哈拉瑞說,人類的歷史中其實已經存在這樣的先例,不過這個比我們還要瞭解我們自己的不是演算法,而是我們的父親、母親、或者老師。像是他的媽媽在他14歲時或許不知道他是同性戀,但她肯定知道許多哈拉瑞沒有意識到的自己。在考量如何利用這些資訊行動時,哈拉瑞的母親會把寶貝兒子的最佳利益放在心上,人類對於如何建立正向的親子關係也有數千年的經驗。但對於「比自己老媽還瞭解自己」的演算法,哈拉瑞認為人類除了沒有歷史傳統可以依循,更搞不清楚到底我們跟這位掌握一切資訊的人工智慧導師,兩者之間的關係到底應該是什麼。
對於哈拉瑞提出的可口可樂情境,唐鳳提出了台灣政治的實例做為回應。她說在公民駭客的請願、甚至是公民抗命的抗爭下,台灣的監察院終於同意公開選舉各方陣營的募款與競選費用支出的原始數據,讓記者們得以一窺堂奧。對這些資料爬梳後赫然發現,社群媒體上有許多廣告既不是競選募款、也不是競選開銷,這個無法解釋的黑盒子讓台灣認識到外國勢力對台灣選舉的干預。
唐鳳表示,外國勢力微觀的方式預測人們潛在的恐懼和希望,然後試圖說服一小部分的人不去投票、或者避免他們支持某種候選人。但台灣徹底透明的選戰財務規範,等於對跨國公司表態:你現在有兩個選擇,一個是開放你的廣告檔案庫,操縱選情的劣行就會被赤裸裸地攤在檯面上,否則就在台灣的選舉期間選擇退出政治與社會廣告。臉書此後擴大了政治廣告的透明度,賦予使用者更多的政治廣告控制權,谷歌與推特則是拒絕在台灣的選舉期間投放政治廣告。
對於哈拉瑞提出的科技倫理問題,唐鳳將其稱為「價值校準」(Value Alignment)問題,而且認同確實更為關鍵。不過唐鳳並不認同父母老師的建議一定會對青少年更好,一方面父母老師的想法受限於他們自己的生活經驗,二來他們的建議對一個青少年來說也排除了其他的可能性。唐鳳認為,要從「價值校準」的議題中解放出來,就要保持多種解釋的可能性。他認為這裡我們需要的是以人類體驗取代用戶體驗,如果考量的是所有人類的經驗,不同的解釋可能會相互疊加,最後我們將從單一的個體視野中解放出來。