霍金辭世》當代最偉大物理學家對人類末日的忠告:提防人工智慧、早點移民外星!

2018-03-14 14:51

? 人氣

提防人工智慧!

霍金2017年3月接受英國《泰晤士報》採訪,警告「人類需要控制以人工智慧為代表的新興科技,防止它們未來可能對人類生存帶來毀滅性威脅。」霍金強調人工智慧本身也適用達爾文的進化論邏輯,未來甚至可能對人類帶侵略的威脅,我們必須利用邏輯和理性控制這種威脅。

[啟動LINE推播] 每日重大新聞通知

他2014年則對BBC表示,現有的人工智慧發展已經有可觀的進步,且實用性相當高,但他害怕的是未來可能會研發出一些和人類相似、甚至超越人類的用途;如此一來,「他」可能會脫離我們這些發明者,再以驚人的速度自我改良、設計。霍金說:「人類受限於生物演化速度,無法發展達到極致,而且會被超越。」

霍金2016年在劍橋大學「萊弗休姆的未來智能中心」(LCFI)發表演說時,雖然肯定「創造人工智慧是我們文明史上最重要的事件」,但也批評人工智慧的發展「沒有節制」,就算可能為人類帶來消除貧困與疾病等巨大福利,但是同樣也可能帶來危險,像是性能優異的自主武器系統,甚至成為少數人壓迫多數人的有力工具。

霍金2015年也跟一千多名物理學家連署,警告不能讓科技企業無節制地開發人工智慧與殺手機器人。當時霍金的警告更為露骨,他說人工智慧是人類所能犯下「最糟糕的錯誤」,他擔心這些自主武器系統被獨裁者與恐怖分子掌控,人工智慧的軍備競賽更是人類災難,違反了造福社會的初衷。

「宇宙若非你摯愛之人的家園,這一切其實微不足道」

霍金關心人類的末日與永續福祉,不過他2014年也曾公開支持英國的安樂死法案(Assisted Dying Bill),認為應該支持人類個體求死的權利。霍金說,他在1985年接受氣管造口手術之後,曾試過「閉氣自殺」,但因身體想呼吸的反射太過強烈,最後並沒有成功,自殺未遂的霍金30年後也才能支持安樂死法案。

霍金後來還有沒有試過求死沒人知道,但他2014年曾說,他一輩子最大的希望,是能在外太空死去。但綜觀他對人類末日的關切,對個體求死意願的尊重,其實霍金真正想說的可能是「愛」。根據他的子女露西(Lucy)、羅伯特(Robert)和提姆(Tim)14日宣布父親死訊時的聲明,霍金如是說:「如果宇宙不是你摯愛之人的家園,宇宙也就微不足道了。」

喜歡這篇文章嗎?

李忠謙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章