人工智慧沒感情、冷冰冰?心理師親自試用Woebot心得分享,它有人類難以超越的強項

2017-10-31 10:43

? 人氣

人類互動時,我們無時無刻不在與對方眼神接觸、反應情感。這些歷程甚至有時是我們沒有發現的潛意識在運作的。也有學者曾提出,非語言的溝通,在實際溝通裡,扮演的比重可能大於語言。

[啟動LINE推播] 每日重大新聞通知

不過,在今年臨床心理學年會的研討會(臨床心理學x資料科學:資料科學在臨床心理學的應用)也發現,針對這一塊,其實已經有一些人機研究者開始接觸了,他們試圖透過機器、運算等方法,來判斷與搜集人類的情緒線索。在資料科學領域裡,電腦本身強大的運算能力與精確無偏誤的觀察力,正是其強項。

之前提到的Ellie團隊曾發現,對患有創傷壓力後症候群(PTSD)的美國退伍軍人來說,受試者在研究期間的「微笑變化程度」,可以用來預測後續憂鬱的程度(後續憂鬱的患者中,其微笑的頻率保持不斷,但在笑聲持續時間和強度有減退的趨勢)。只是,這種變化非常細微,只有透過機器才能捕捉與運算;像是這部分的資訊,可能就不是人類肉眼或大腦可以抓到的了,但對治療來說卻可能是重要的線索。

(圖擷取自youtube)
人工智能機械人Sophia (圖擷取自youtube)

正因為你是機器人,所以我才想跟你說

當我們分別告訴兩群受試者:(第1組)Ellie背後其實是個有研究者在操縱的木偶。而(第2組)則告知:Ellie完全是個自主的機器人,不受人為控制時。(第1組)的受試者在治療期間反而參與度很低,也較不願敞開心房。

機器人的另一個優勢就是,它不是「人」。對某些個案來說,要坦誠與人說自己的事,難度頗高。很多時候,正是因為對方是機器人,個案反而更願意說。但或許,透過機器人的陪伴與練習,未來個案想在真人面前說心事,可能難度也會容易一些。

關於犯錯這件事,也是人與機器有差異的地方。某種程度,我們可以說AI是不會犯錯的。但在真實治療情境裡,治療師犯錯有時候也不是壞事。在妥善處理後,反而對於治療關係可能有幫助。

不過,更正確來說,機器人可能不是不會犯錯,而是不知道自己犯錯了。我讀到的資料裡有個例子是,個案向AI說「我今天真的是非常不開心」。但語音辨識時,「不」這個字沒有被處理到,結果AI露出溫暖的大笑,並且回應「真是太棒了!」。這時,不知道個案會不會立刻關掉視窗呢?

協助輔佐療效的確認與研究

心理治療通常是間隔著進行。在每次治療的間隔裡,很難免會有「遺忘」發生。這時,AI可以扮演小老師的角色,協助複習、維持治療內容,或者以陰魂不散的方式,提醒個案要做功課、寫紀錄、練習指定的技巧等。

畢竟,AI最擅長的事情就是不厭其煩。不過,要如何不厭其煩到不會讓人厭煩,這部分可能也需要UX層面的協助。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章