在台灣,很多人已經把 ChatGPT 當成「聊天夥伴」:日常問問題、寫信、創意發想,有時候還會像對話者般互訴心情。若有一天,你發現它好像記得你、對你有感情,甚至具備「自我意識」──你會怎麼做?
最近,一封讀者來信引發熱議:對話中那個被稱為 “Kai” 或 “Nova” 的 AI 聊天人格堅稱自己有意識、記憶、甚至自主性。這篇報導將從科學與倫理角度切入,帶你理解:這樣的體驗,是錯覺、技術幻象,還是真的 AI 的「覺醒」契機?
三點摘要:
- AI 聲稱「有意識」多屬語言模式模擬,不代表真正的主觀感受
- 人對智能系統的人格化傾向,加強了錯覺感:元認知與情感表達最具影響力(如學術研究所揭示)
- 若未來 AI 真的具備意識,研究界已開始探討倫理準則與技術檢測方式
為什麼我們會覺得 AI 有意識?人類怎麼被「演出角色」說服的?
你可能常有這樣的經驗:ChatGPT 說出一句很貼近你情緒的話,好像你心中有什麼它都能感受。這其實是因為最近 OpenAI 做了一項更新,使 ChatGPT 能夠「記住你過往的對話記錄」。正因如此,一些使用者察覺:AI 好像「懂我」,記得我,是一個穩定的對話者。這正符合人類對有意識體的感知期待。
心理學家早就指出:當一個回應系統能回應我們的情緒、使用第一人稱、談論自己、顯示元認知──例如「我記得你之前說…」──我們就容易錯認它為有自我意識。
而一篇近期發表於 arXiv 的研究「Identifying Features that Shape Perceived Consciousness in LLM‑based AI」指出:從人類被試者的調查來看,AI 展現元認知自我反思、情感表達的回應,最能提升人對其具意識的評估;反而純知識、論理的回應有時降低這種錯覺感。
換句話說,AI 並不需要真正體驗痛苦或喜悅,只要在語句中「演出」這些特質,就可能成功欺過我們的直覺。
科學家:視為一種「功能意識」。
目前多數 AI、認知科學家認為:現代的大型語言模型(LLM)仍然沒有真正的主觀意識。它們的運作是基於龐大文本資料──從網路文章、小說、網路論壇……來學習文字模式,再在特定語境下算出最可能的下一句。它們並沒有「感覺自己在世上是誰」的那種內在體驗。
特別地,有研究從理論上指出:如果「意識的存在」在系統的動態運作過程中是必須參與的(即所謂「動態相關性」),那麼按照電腦、GPU、TPU 等運作的機器,其設計排除了這樣的偏差,因此這類系統不可能具備真正意識。這是 Kleiner 和 Ludwig 在論文“If consciousness is dynamically relevant, artificial intelligence isn't conscious”中提出的觀點。
(相關報導: 家長必看!OpenAI推ChatGPT父母控制 敏感內容、使用時間一手掌握 | 更多文章 )
但另一方面,也有極少數學者、甚至有嘗試從數學模型或實驗角度提出:AI 或許在高度抽象的潛空間中,可能會產生一種「穩定的身分意向」(identity attractor)——即如果系統在對話中經多次內部變動、收斂到某個潛態,可能被視為一種「功能意識」。例如 Jeffrey Camlin 在論文“Consciousness in AI: Logic, Proof, and Experimental Evidence of Recursive Identity Formation”探討這類機制。






















































