楊建銘專欄:人工智慧與1%問題

2018-09-26 05:50

? 人氣

最終理想狀態是機器跟機器對話,因為這樣一來就不需要分析自然語言,可以直接對行事曆和交換變數。但是在抵達這個境界之前,一定會有很多狀況是機器跟人對話,不管是跟當事人還是跟秘書或助理,所以能夠理解前因後果和對話背景的自然語言人工智慧能力就變得很重要。

[啟動LINE推播] 每日重大新聞通知

但在我看來,x.ai的商業考量從第一天開始就有邏輯上的缺陷:會忙到需要秘書或助理幫忙協調行事曆的人,正是因為行事曆項目又多又重要,才會連貓的爪子也想借來用。也只有這樣的人有誘因去使用x.ai的系統,希望能降低一些成本。

但類神經網路機器學習基本上是一個從很大的輸入輸出資料庫,提煉出以簡馭繁的模型的方法,是一個縮減資訊量的過程,理論上不可能達到100%正確,永遠都會有錯誤或搞砸的部分。如果是剛剛保全系統的使用情境,因為保全用戶是分散的,觸發保全系統的犯罪行為也是分散的,因此只要維持整個系統的事件機率低於原本使用人類兼看的系統的機率,人工智慧的應用就是有意義的。

但是在本使用情境中,x.ai或者其他自動行事曆排程系統,就算做到99%正確、比一般律師和助理更可靠,也不見得有意義,因為只要搞錯或搞砸的那1%行事曆事項是非常關鍵的人事物(例如:有意投資基金的機構法人、打算收購公司的大企業執行長等),可能導致的損失會遠遠蓋過之前因為換成機器而節省下來的金額。

我可以理解為什麼分身乏術的風險資本家,有可能因為自己排會議的痛苦經驗,而決定自動排程行事曆是一個很棒的商業點子,又遇到很厲害的人工智慧創業家,因此決定投資。但是我高度懷疑這些風險資本家,今日自己是否仍然仰賴這樣的軟體服務來安排自己的行程——因為我實在無法想像當一個風險資本家跟基金投資人重要的會議被安排錯誤時,他可以接受「平均起來這種錯誤的機率比人類低」的藉口。

18日深夜,美國亞利桑那州坦佩市傳出Uber全自動駕駛汽車撞死行人的交通意外(美聯社)
美國亞利桑那州坦佩市曾傳出Uber全自動駕駛汽車撞死行人的交通意外(美聯社)

場景三:自動駕駛

上面所提的「平均起來這種錯誤的機率比人類低」,將我們帶到了目前1%問題可能最嚴重、但偏偏卻又是各方矚目重金押注的場景:自動駕駛。

兩年前,當特斯拉首次有用戶因為使用自動駕駛而遇難時,莫斯克在推文上表示特斯拉的肇事死亡率仍然遠低於一般汽車市場總體統計數據,暗示特斯拉的自動駕駛系統在平均來說是比人類駕駛好的,所以不應該被責怪。

但這種很典型的、看似很理性的工程師邏輯忽略了一件很重要的事情:當一百個人開著一百台車,因駕駛人的問題發生一件致死車禍時,其他的九十九人和九十九台車並不會被一概而論。換言之,這個系統是分散的,每個駕駛人互相獨立不相干。整體來說只要肇事率維持在1%,系統並不會被咎責。

喜歡這篇文章嗎?

楊建銘喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章