3張貼紙就讓特斯拉逆向暴衝:你準備好當自動駕駛的人肉教材了嗎?

2020-03-21 16:03

? 人氣

不要忘了,自駕車已經不再是交通工具,而是一部非常複雜的電腦。是電腦就有軟體,有軟體就一定有 bug。工程師修復程式,必須要先能夠複製問題。軟體內部都有非常複雜的參數和邏輯,那些都是肉眼看不出,用儀器也測不出來的──這不是傳統汽車,某些問題可能只有在特定的地點,及特殊的偶發條件下才會發生。

[啟動LINE推播] 每日重大新聞通知

所以我合理地懷疑這是軟體的 bug 所引發的意外。

軟體的 bug : 未來汽車的額外風險

所以在辨識和決策系統可能缺乏普通常識之外,現在我們還得面對另外一項風險,那就是電腦軟體的 bug。我們已經沒有選擇的餘地,而把自身安全與深不可測的軟體功能緊緊綁在一起。

上禮拜美國交通安全委員會對這個意外的調查報告也剛好出爐──沒錯,撞車前駕駛正在玩手機。可是他所犯的錯誤不足以平衡特斯拉的安全缺陷。我們應該要追究為什麼車子會在完全沒有反應的狀況下,以115 公里的時速直接撞上分隔島。

分隔島前面的防撞緩衝裝置因爲先前的另一次車禍損毀而暫時拆除,所以會不會 AI 看到的分隔島跟訓練的資料不同,所以根本不知道前面是水泥障礙?這就好像危險換一個模樣你就不認得了。如果你僱用的駕駛這麼不知變通,你敢坐他的車嗎 ?

當然或許還有更恐怖的可能性⋯⋯那就是,連特斯拉也不知道為什麼。

這是多麼重要的答案,我們不能各打50大板就草率結案。這不是個案的對與錯,也不是保險理賠比例的問題。這涉及我們對科技的根本信任,全世界都應該知道答案。把責任推給一個玩手機而賠上自己性命的駕駛,絕對不是我們要的解釋。

當一個新的科技產品意氣風發在市場成功製造風潮之後,人們總傾向於一窩蜂去嘗試。如果後來發現有缺陷,彷彿為了鼓勵創新,大家也大方包容。但自駕車不是iPhone,有缺陷的創新不能鼓勵,也不能摸摸鼻子就算了。這個世界對於自駕車的缺陷不能採用同樣的容忍標準。

你準備好要成為AI的「人肉教材」了嗎 ?

當然,自駕科技完全成熟後可以避免80%的意外。問題是那個「完全成熟」要等到什麼時候 ? 在那之前,我們會不會淪為AI的「人肉教材」? 走在馬路上的我們,會不會不知情地成為自駕車的免費測試物?這些車商用你我做為測試目標之前,有沒有徴得我們的同意 ?我們願意花多大的代價去訓練AI的普通常識?

甚至,你願不願意成為機器學習的代價之一?

我們對那一套決定生死的劇本,又敢付出多大的信任?我們真的準備好,要把性命交給一部普通常識也許不如6歲孩子,而一切都只會「照劇本演出」的機器碼 ? 如果一截2吋長的黑膠帶就可以讓自駕車起乩;如果3段冒充車道分割線的貼紙就能把自駕車騙到對向車道,還有多少我們從來沒有想到的危機正在滿街趴趴走 ?

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章