人工智慧沒感情、冷冰冰?心理師親自試用Woebot心得分享,它有人類難以超越的強項

2017-10-31 10:43

? 人氣

而再往前追溯到60年代,MIT研究人機互動的工程師也曾用幾千行程式碼做出一個心理治療程式網頁ELIZA。Eliza的設計是有點模仿古早時代的心理治療師的風格(網站上寫著,Eliza是一位個案中心主義的治療師,Rogerian psychotherapist XD)。她不直接回答問題,而是轉述你輸入的話,引導你繼續多說。剛剛簡單試用了一下Eliza:

[啟動LINE推播] 每日重大新聞通知

> Hello, I am Eliza.(電腦:你好,我是Eliza。)
* nice to meet you(我:很高興認識你。)
> We were discussing you, not me.(電腦:我們在討論的是「你」,不是我。)
* i feel depressed.(我:我好憂鬱。)
> Tell me more about such feelings. (電腦:多告訴我一點,那樣的感覺是...)
* low mood, poor sleep, no energy.(我:情緒低落、睡不好、沒精神。)
> Are you saying no just to be negative? (電腦:你剛剛說「no」,是一種負面嗎?)
* i feel so negative.(我:我感覺很負面。)
> Do you often feel so negative? (電腦:你常常感覺負面嗎?)
* yes(我:是的。)
> I see. (電腦:我知道了。)
* what!? XDDDD(我:什麼啦!? XDDD)
> Have you asked anyone else?(電腦:你有問過其他人嗎?)

AI與心理治療的攜手想像

成見少,但「情感層面」的同理心還要加強

與擁有「人心」的人類治療師比,機器人的成見、刻板印象、反移情應該會少很多。因此,AI可能更適合用來作為「標準化的」、「探索性的」工具,像是一些結構化的初步評估或者資料搜集。(不過,似乎也得留意在輸入AI的「智慧」時,人類的成見與刻板印象也可能一起不小心灌進去...這樣機器人就是不帶成見的運作人類的成見了)

不過,提到治療師本身的情緒時,「缺少情緒」可能不完全是好事。在真實治療關係中,治療師本身從個案身上「感受到」的情緒,經過必要的自省與處理,其實也是治療素材的一部分;因為這感覺很可能也是個案在生活中會帶給他人的。

所以說,也許在「認知/思考的同理心」上,機器人的文字辨識、捕抓能力應該還可以,但是在「情緒層面的同理心」,可能還有非常大的進步空間。畢竟在治療室裡,很多時候情緒的影響力可能更甚於認知。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章