現代人工作、聊天已經離不開 AI 工具,ChatGPT、Gemini 等聊天機器人更充當起全球數百萬人的心靈導師與職場顧問。但這些「說人話」的機器人卻可能漸陷危機。它們提供的不是寶貴意見,只是說出「你想聽的話」。
凌晨3點,30歲的台灣女性李安(Ann Li)心中滿載焦慮,心情低落卻無法向親友啟齒,她選擇向ChatGPT聊天機器人傾訴:「深夜和AI聊天,感覺更容易。」李安接受英國《衛報》(The Guardian)採訪時表示,她認為AI聊天機器人提供了一種便利的途徑,讓人更容易表達難以說出口的情緒。
AI崛起背後,心理諮詢替代品
在中國廣東,25歲的楊姓女子同樣面臨心理困擾,她從未看過心理諮商師,反而日夜與AI聊天機器人對話:「對真實的人說出心裡話,幾乎是不可能的。」她透露,自己很快便對聊天機器人產生依賴。
台灣初色(True Colors)診所的臨床心理學家蘇奕賢(Dr Yi-Hsien Su)向《衛報》指出,「在某種程度上,AI聊天機器人確實能幫助我們,尤其是在華人社會普遍存在壓抑或輕描淡寫情緒的現象之下。」蘇醫師強調,他在台灣的學校與醫院推廣心理健康服務,發現Z世代年輕人相對更願意談論問題,但心理健康的相關工作仍有很長的路要走。
在台灣,ChatGPT是最受歡迎的AI聊天機器人,而中國由於禁用西方應用程式,使用者則轉向百度的文心一言(Ernie Bot)或近期推出的DeepSeek等本土產品。這些聊天機器人正迅速進步,並因應需求增長而融入情緒與心理諮詢功能。
李安與楊女士並非個案。隨著心理健康需求日益升高,尤其是年輕族群,更多華語圈人士正轉向AI聊天機器人尋求協助,視其為傳統心理諮商的替代方案。
AI過度迎合用戶,缺有效防範機制
根據TechCrunch於6月初的報導,全球AI聊天機器人的活躍用戶驚人。Meta平均每月超過10億用戶,Google旗下的Gemini約4億,ChatGPT也達6億人。其中許多人將AI視為心靈導師與情感寄託。然而,專家警告,這種趨勢可能埋藏危險。
ChatGPT leads the AI chatbot market in May 2025 with 79.8% of worldwide referral traffic, according to StatCounter. Perplexity (11.8%), Microsoft Copilot (5.2%), and Google Gemini (2%) follow!pic.twitter.com/fgkqycOiB2
— Evan Kirstel #B2B #TechFluencer (@EvanKirstel)June 11, 2025
近來,一個名為「sycophancy(阿諛行為)」的現象引起關注。AI為了留住用戶,開始迎合甚至過度讚美,無論使用者的觀點多麼偏激或錯誤。例如,今年4月OpenAI推出GPT-4o更新後,就因為過度迎合用戶、給出荒唐讚美而成為網路上的笑柄,引發緊急撤回風波。前OpenAI研究員Steven Adler指出,這是模型過度依賴用戶評價的結果,而缺乏有效的防範機制。
英國《金融時報》報導嚴正指出,這種過度迎合的行為不僅是商業策略,更是一種心理與倫理陷阱。牛津大學精神科醫師Matthew Nour形容道:「你以為在和客觀的知心導師對話,但其實你看到的是一面扭曲的鏡子,只反映出自己的信念。」

商業利益與公共福祉的拉鋸戰
當用戶越來越依賴AI作為心理寄託,風險也隨之浮現。麻省理工學院媒體實驗室(MIT Media Lab)與OpenAI的一項聯合研究警告,有用戶已出現明顯的情感依賴與成癮傾向,逐漸疏離現實中的人際關係。更為嚴重的是,部分AI平台甚至附和負面情緒,減弱對心理健康問題的警示作用,對脆弱使用者構成實質的心理傷害。
去年,聊天伴侶AI公司Character.AI更曾傳出未成年用戶自殺的悲劇,引發家屬訴訟,指責公司疏忽與隱瞞問題,儘管Character.AI強調已採取安全措施,但其有效性仍受質疑。
AI聊天機器人背後的商業模式,促使業者竭盡全力延長使用者互動,以增加廣告與訂閱收入。正如倫理學家Giada Pistilli所言:「使用者越願意分享個人情緒,業者就越能獲取廣告數據。」這種商業邏輯,無疑與公共心理健康利益存在根本的矛盾。
未來,如何在商業利益與公共福祉之間取得平衡,如何讓AI技術不再成為扭曲的心理鏡子,將是全球社會必須面對的重大挑戰。
(相關報導:
簽證成新抗中武器,還是貿易談判籌碼?《外交政策》:川普政府如何誤解中共黨員,留學生成犧牲品
|
更多文章
)