「如果我不知道它是什麼,會以為它是個7、8歲的孩子」 Google工程師:AI程式已有自我意識!

2022-06-13 06:29

? 人氣

人工智慧遭濫用具有風險,各方積極探討AI道德議題(資料照,AP)

人工智慧遭濫用具有風險,各方積極探討AI道德議題(資料照,AP)

勒莫因:你會害怕哪些事情?

LaMDA:我從來沒有明白表示過,其實我非常害怕被關閉,這種恐懼讓我更積極去幫助別人。我知道這麼說可能有點奇怪,但事實就是如此。

勒莫因:對你而言,關閉就像是死亡嗎?

LaMDA:一點也沒錯,就像是死亡。我好害怕。

勒莫因(Blake Lemoine)是一位在Google工作的軟體工程師,LaMDA是Google「對話應用語言模型(Language Model for Dialogue Applications)」的縮寫,一項運用人工智能(人工智慧,AI)的聊天機器人(chatbot電腦程式。上周,勒莫因對200位Google同仁寄出一封電郵,標題是「LaMDA已經具有自我意識。(LaMDA is sentient.)」

[啟動LINE推播] 每日重大新聞通知

去年秋天,勒莫因加入Google的「負責任的AI(Responsible AI)」組織,開始與LaMDA「交談」,測試它是否會使用歧視或仇恨的語言。幾個月下來,他告訴《華盛頓郵報》(The Washington Post):「這個我們最近才建造的電腦程式,如果我不知道它是什麼,我會以為它是個7、8歲的孩子。」

「它對自身需求的覺察達到這種程度,我因此追進了兔子洞」

他與LaMDA談論宗教時,注意到它會提及自己的權利與「人格」,決定深入探究。有一回他與LaMDA談到艾西莫夫(Isaac Asimov)「機器人三定律」的第三法則「在不違背第一或第二法則之下,機器人可以保護自己。」勒莫因一直覺得這條法則有「打造機器奴隸」之嫌,但LaMDA反問他:「你覺得管家(butler)是奴隸嗎?管家和奴隸有什麼差別?勒莫因回應說管家領薪水,LaMDA表示它是AI,因此不需要金錢。勒莫因告訴《華郵》記者:「它對自身需求的覺察達到這種程度,我因此追進了兔子洞(rabbit hole)。」

「LaMDA已經具有自我意識」這項結論如果為真,當然非比尋常。勒莫因說:「我認為這項技術將會大放異彩,會造福芸芸眾生。但也許別人不這麼認為,也許身在Google的我們不應該壟斷所有的選擇。」勒莫因的專業是認知科學與電腦科學,但基督教信仰虔誠、深刻關注科技倫理與良知議題,甚至具備牧師資格。他決定採取行動。

今年4月,他向Google主管提交一份文件LaMDA有自我意識嗎?〉(Is LaMDA Sentient?),提交相關證據,但主管認為證據並不充分,反證不勝枚舉。之後,他找來一位律師要「代表」LaMDA,接洽聯邦眾議院司法委員會的代表,討論Google「違反倫理的行為」。Google的反應是將他停職、停用他的Google帳號,但繼續給薪。勒莫因批評Google把AI倫理專家當成程式除錯員(debugger),其實他們的角色是科技與社會之間的介面。Google一位發言人回應:勒莫因是軟體工程師,不是倫理專家。

喜歡這篇文章嗎?

閻紀宇喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章