張經緯觀點:AlphaGo人機大戰告訴我們哪些事?

2016-03-17 06:10

? 人氣

AlphaGo的人工智慧並未跳脫人類學習及推理的模式,還是依循觀察、學習、強化產生概念的方式。只是AlphaGo的學習方式還是相當幼稚,需要接受所有資料再篩選,雖然深度神經網路可以連結數套策略法則進行學習,但是神經網路的策略還是經過事先預設無法自動產生新的策略,更不能夠產生新的頓悟。電腦需要花極大的功夫移除大部分無用的雜訊,人類不需要過濾所有資料直接就可以專注於相關的資料。人類可以依據既有經驗將資料分類,依據類別預設不同的策略並制定彼此間的關聯權重及精密度,再經過經驗回饋修改各樣法則甚至組合出新的法則。

[啟動LINE推播] 每日重大新聞通知

人工智慧受人支配而非改變人類思維

電腦的記憶及運算及搜尋能力遠遠超過一般人類。我們不需要因為圍棋手無法像電腦一樣可以搜尋前推20步棋路的能力而覺得氣餒,就好像沒有人想要憑蠻力勝過推土機,或是想達到機器手焊接的精準度一樣。機器做的比人好的就交給它去做,把騰出來的精力用在機器辦不到之處。

利用電腦的長項幫助人類完成速度及人力不可及的事情會給人類帶來更多的福祉而非威脅。AlphaGo在有限的時間可以判讀3000萬份棋譜。如果利用現有電腦圍棋對形式判別評估的功能,列出各盤關鍵棋步及經典棋譜,讓學圍棋的人可以更有效率的學好圍棋。那麼圍棋學生就能從更高品質的棋步中更有效的學習到高明的棋步,而不需要從一次一次的錯誤棋步慢慢進步。

人類的學習效率及智慧遠勝電腦,一個三歲小孩看圖說故事的能力,比電腦從一千五百萬張標記過的圖片中所學習的理解力還高。人腦的分類、應變及組合能力比目前電腦人工智慧不知道要高明多少。電腦人工智慧要模仿並實現人類分類、應變、組合及創新能力仍遙遙無期。

中國有幾位西洋棋神童卜祥志侯逸凡韋奕都是十幾歲就拿到西洋棋特級大師(Grandmaster)頭銜,他們從小到大下棋的次數不會有多少,即使不斷的下、天天下還比他們手下敗將下過的棋少很多。可見不是多下、蠻幹就一定有成果。他們一定是在下棋中領悟出高明的規則,又在臨場上創造了新的頓悟辦法。

如果人工智慧能幫人整理高明棋譜,過濾掉過時或無用的資訊,提供更精準的訊息,會提供人類更有效的學習內容及方法。

下一步該如何?

AlphaGo充分展示學習及歸納的威力。經過大量的學習、強化、組合,會提高電腦圍棋的層次。電腦人工智慧是仿效人類學習方式,也證明人也需要反覆的學習、強化、組合才能提升人的才幹。反覆練習是學習、變化的不二途徑。

現代人缺乏耐心,不願意反覆練習,認為知道就好、理解就夠。學習必須達成行為變化的境地,不然仍停留在知識階段。如果是別人而不是自己的知識,只要去查考搜尋就可以,不能成為自己的智慧,自己也沒有改變。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章