3張貼紙就讓特斯拉逆向暴衝:你準備好當自動駕駛的人肉教材了嗎?

2020-03-21 16:03

? 人氣

20200318有人用三條貼紙,把一輛特斯拉輕易地騙到對向車道上。(示意圖 /圖案來源:鱸魚)
有人用三條貼紙,把一輛特斯拉輕易地騙到對向車道上。(示意圖 /圖案來源:鱸魚)

它不會奇怪馬路明明是直的,車道分線為什麼會突然向左,也不會聯想到轉過去會有什麼後果。它只知道遵循設計好的法則,不會挑戰不合理。這全是出於電腦善良的本性。

[啟動LINE推播] 每日重大新聞通知

幸好這只是在測試場上,如果是在真實的街道上,對於那些調皮搗蛋的青少年,這會是多令人嚮往的橋段,也是多誘人的一場死亡遊戲?特斯拉最引以自豪的,就是自駕系統能夠自動跟隨車道轉向。可是那麼精確的攝影辨識,卻無法區分什麼是惡作劇。 AI 課程裡從來沒有教過這一課。

只會「照劇本演出」

人類的眼睛可以捕捉、並立即了解周遭景物最細微的變化,所以我們可以判斷什麼叫「潛在的不正常」。如果路口站了一個看起來精神不正常的人等紅燈,我們會下意識提高警覺,準備面對他突然闖紅燈。但是電腦只知道有人在等紅燈,而自己是綠燈,有先行權。它看不出什麼叫潛在的不正常,也無法猜測別人的意圖。

人類的眼睛只要花0.2秒就可以從任何一張臉判斷出年紀、情緒、和意圖。我們看到的是「表情」,電腦看到的只是「臉」── 說得更機械一點,那只不過是一張「幾何圖形」,用一張面具也可以騙過它。辨識表情需要認知的能力。這種能力目前只有生物才有。

你我的安全繋乎劇本的成熟度

2018 年 Uber自駕車在亞利桑那州撞死行人 ──那個人在不是路口的地方推著單車穿越馬路,系統偵測到「有東西」穿越,卻沒有採取任何措施。辨識系統也許知道什麼是行人,什麼是單車,以及哪裡有路口可能會有行人穿越。可是行人「推著」單車,在不是路口的地方穿越,系統就不知所措。

2019年特斯拉也發生高速公路上突然有貨櫃車橫越 (某些高速公路設有合法的迴轉道),造成決策系統錯亂,而直接撞上去的意外。嘲諷的是那位車主是特斯拉鐵粉,經常在YouTube上 post自駕的神奇畫面。其中一段2016年在高速公路上自動閃躱近距離突然插隊的卡車的畫面,甚至被特斯拉CEO 馬斯克拿來大做宣傳,證明他們產品的成功⋯⋯三而年後,那輛神奇的特斯拉因為「缺乏普通常識」,帶著鐵粉一頭撞上那輛橫越的貨櫃車。

《 特斯拉自動閃躲突然插隊的卡車 》 :

人們總會被科技一時的成功冲昏頭,而忘記後面還有多少我們所不知道的問題,正在耐心等候適當的時機爆發。這就是一個最典型的例子。

2018年蘋果一位台灣工程師的特斯拉以高速撞上矽谷兩條高速公路中間分岔的分隔島。在悲劇發生之前,他就發現經過一次軟體更新後,自駕系統就會偶爾自己偏向。車子送回檢修後,特斯拉也無法找出問題。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章