一天就下架! 微軟人工智慧聊天機器人被鄉民「玩壞了」

2016-03-26 13:47

? 人氣

前陣子由谷歌(Google)開發的人工智慧程式Alphago擊敗南韓圍棋高手李世乭,引發外界關注,而人工智慧也成為當今熱門議題。跟著這股熱潮,微軟也宣布最新人工智慧對話程式 Tay上市,這款能透過對話學習成長的人工智慧,卻因為網友的各種「訓練」,上線不到一天就緊急下架。

[啟動LINE推播] 每日重大新聞通知

Tay主要是由微軟旗下技術研究 Bing 團隊開發,目標對象鎖定18 歲到 24 歲的年輕人在推特進行聊天實驗,希望在對話中進行相關研究,期望能透過機器學習技術,讓 Tay 能夠在現實生活的人類對話中快速成長,甚至越來越聰明,可以擁有自己的個性,並且很自然的與他人互動。

但理想跟現實總是有差距,Tay 的發展一切都取決於網友的問話方式。推特用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓 Tay 變得較為偏激,Tay 除了不認同納粹大屠殺外,參選這屆美國總統選舉的房地產大亨川普也成了「它」說嘴的材料,讓打造 Tay 的團隊是哭笑不得。

學習逐漸走樣、言論到後來更顯偏激,《商業內幕》(Business Insider)擷取了大量的歧視性推文,像是 Tay 就有一則回應指出「小布希總統造成了 911 事件,不過希特勒恐怕會比這隻猴子做得更好。此外美國總統候選人川普,將是我們唯一的希望。」(bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got)。

這等言論一出,讓微軟於24日發布聲明,表示很遺憾在Tay上線後24小時內,發現有少數使用者聯手濫用Tay的溝通學習技巧,誘導Tay發表不當言論。因此決定讓Tay下線以便調整軟體程式。

出現這樣的差錯,打造 Tay 的工程師或許需要付上一半的責任。在開放使用前,應要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題或回答的方式,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗又偏激的人工智慧。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章