AI幻覺  

約 16 項搜尋結果
Appier的最新研究為AI Agent開啟一項嶄新的關鍵能力。(示意圖/取自freepik)

讓AI不再盲目自信!這項新技術讓Agent學會「評估勝率」再出手,有效解決企業痛點

Zohar Lazar for WSJ

華爾街日報》如何讓AI不再討好我,甚至說出逆耳忠言?

企業大量使用AI讓AI保險需求大增。(資料照,取自pixabay)

AI理直氣壯胡說八道 竟為保險業者開啟龐大商機

發布這個AI職缺的公司名為Memvid,是一家專注於改善AI記憶能力的AI新創公司。公司共同創辦人兼執行長Mohamed Omar指出,他們推出這個AI職缺,其實是希望把使用者對AI的不滿具體呈現出來。(示意圖/智慧內容中心)

不用文憑、證照!科技業「1職缺」日薪25570元,打趴一票上班族 CEO親揭奇葩職務

AI胡說八道的根源之一在於語言模型的統計本質。(示意圖,美聯社)

林建甫專欄:理解與解決AI胡說八道的問題

在生成式AI工具快速擴張的浪潮中,Google Notebook LM以截然不同的產品定位切入市場。(圖/智慧內容中心製)

Google Notebook LM免費就夠用!學術圈實測5種關鍵用法 高階版差異完整解析

OpenAI 在說明中強調,GPT-5.1 最直接的技術改動,就是大幅壓低生成錯誤內容的機率。在內部測試裡,針對需要匿名網路搜尋的情境,GPT-5.1 的出錯率,相較前一代 GPT-4o 減少了約 45%,代表它在查找、理解並重述網路資訊時,更能避免無中生有的「幻覺」情況。(圖/OpenAI官網)

GPT-5.1變得更好聊!幻覺率大降8種擬人語氣更自然 台灣1類族群優先開通

由OpenAI研發的生成式機器人ChatGPT。(美聯社)

阿將伊崮喜瀾觀點 : 魔鏡!魔鏡!魔鏡─請問我到底怎麼了?

「AI教父」約書亞・班吉歐。(Yoshua Bengio/X)

華爾街日報》專訪「AI教父」:依舊擔心人類滅絕風險—AI若為完成目標,可能選擇「犧牲人類」!

對許多台灣人來說,跟 ChatGPT 對話早已是生活日常,但你是否也遇過 AI 很有自信地說出「完全錯的答案」?這就是所謂的「AI 幻覺」。最新一份 OpenAI 研究報告就揭露,問題不只在於訓練數據,更在於「評估方式設定了錯誤獎勵」,這份研究提出三種解法,試圖重新定義 AI 的可靠性。(翻攝OpenAI官網)

AI為何老愛亂答?OpenAI揭3解方「幻覺驟降80%」GPT-5降錯率新突破

AI識讀不應僅是操作技能,而是關乎辨識偏誤、參與治理與維護文化多元的公民素養。當大型語言模型成為社會敘事的幕後編劇,民主若無制度透明、知識在地與技術去菁英化的三重防線,將淪為由演算法主導的虛構秩序。(美聯社)

江岷欽觀點:知情的幻覺─在AI浪潮中尋找民主

ChatGPT該用哪一個模型?專家揭密「潛規則」。(示意圖/AP)

ChatGPT模型怎麼選?專家揭密4模型差異:「1處沒設定好」,AI可能變笨蛋

外媒指出,蘋果內部AI團隊重組,負責人轉任「Knowledge」新專案後,進展仍顯混亂,多款大型語言模型(LLM)正在測試中,部分參數高達1,500億,雖效能接近ChatGPT,但仍存在「AI幻覺」問題。(示意圖/取自pexels)

ChatGPT會變成你手機預設助理?OpenAI「出狠招」逼蘋果讓位,Siri危機來了

(DALL·E 3 Standard繪製)

「汽車問世後,不得不制定交通規則」AI大爆發之後,究竟該如何監管:路線分化與地緣政治陰影

360兒童學習手錶。(翻攝淘寶)

中國AI辱華好大膽!先詆毀毛澤東、再貶低中國人智商,習近平也拿「AI幻覺」沒辦法

(圖像由Copilot創作)

當ChatGPT「一本正經胡說八道」,如何破除「AI幻覺」?《經濟學人》的四種可能解方