身為AI原生的Agentic AI即服務(AaaS)公司,Appier今(24)日發表最新研究論文《大型語言模型的校準研究:從回應表現到能力評估》,針對大型語言模型(LLM)在實務應用中常見的過度自信與幻覺問題,提出全新的能力校準概念,讓AI能更準確地判斷其對特定問題的解題能力。
這項研究為AI Agent開啟一項嶄新的關鍵能力──在回應問題之前,先評估「自己答對的機率有多高」。透過建立可量化的「自我評估」機制,AI系統得以在可信任的基礎上進行更有效率的決策與資源分配,進一步提升企業在AI應用上的可靠度、成本效益與規模化部署能力。
從「回答是否正確」到「模型是否有能力解決問題」
傳統LLM的校準方法主要著重於回應層級信心度,也就是評估單一生成答案的正確機率。然而,由於LLM的生成過程本質上具有隨機性,同一個問題在不同次生成時可能得到不同答案,因此僅依賴單次回答的正確性,往往無法真正反映模型面對該問題的整體能力。
換句話說,在許多實際應用情境中,企業更關心的問題並不是「這一次回答對不對」,而是「這個模型整體上能否解決這個問題」。
為此,Appier AI研究團隊提出能力校準的評估框架,將焦點從單次回答的信心度,轉向模型對特定問題的預期成功率。這代表評估目標從「一次回答」提升到「整體解題能力」,更貼近真實的AI應用需求。
讓AI Agent學會「量力而為」
「我們希望讓AI Agent不只是會回答問題,更能理解自己的能力邊界。」Appier執行長暨共同創辦人游直翰表示,透過能力校準技術,Agent可以在回應之前先判斷成功機率,進而智慧地分配運算資源:簡單問題快速處理,困難任務則自動調度更強大的模型或更多運算能力。
游直翰指出,這讓AI從單純的工具,進一步進化為能為企業主動管理資源、優化成本與提升決策品質的智慧系統,這也是企業級Agent能真正大規模落地的重要基礎。
低成本也能達成高品質的信心校準
在研究方法上,Appier AI研究團隊首先從理論上釐清能力校準與回應校準(Response Calibration)的差異,並推導兩者之間的數學關係。其次,團隊進一步透過三個不同的大型語言模型,在七個涵蓋知識與推理密集任務的資料集上進行實驗,並比較多種不同的信心估計方法,包括:
★模型自述信心(Verbalized confidence):模型直接用文字或百分比自我評分、說出信心值
★P(True)方法:根據模型在生成答案過程中的機率訊號,估算「答對的可能性」有多高
★線性探針(Linear probe):檢查模型內部知識狀態、從模型的內部訊號判斷它是否真的懂
根據研究結果顯示,線性探針方法在成本與效果之間取得最佳平衡,其計算成本甚至低於生成一個Token,但仍能穩定提供高品質的信心估計。
提升AI推論效率與資源管理能力
Appier說明,能力校準框架也展現兩項具實務價值的應用。首先是pass@k預測:由於複雜任務往往需要模型嘗試不同思路,透過能力校準產生的信心分數,可在不需要實際讓模型重複生成多次答案,也能預估「若嘗試 K 次,至少答對一次的機率」。
第二,是推論資源分配。在總運算資源固定的情況下,系統可依據問題難度(即模型預估成功率)動態分配推論次數,將更多計算資源留給較困難的問題,進而在相同成本下完成更多任務。
為可信任AI Agent建立決策基礎
透過能力校準機制,AI Agent能在每一次行動之前建立更穩定且可量化的信心指標,使其能自主判斷何時可以獨立完成任務、何時需要調用外部工具、何時應尋求人類協助,讓AI能在充滿不確定性的環境中做出更可靠的判斷,推動企業AI應用從輔助工具進一步邁向真正的自主系統。
Appier強調,研究團隊未來將持續深化能力校準技術,一方面開發更先進的方法提升模型評估效能,另一方面拓展其在模型路由、人機協作與可信任AI等場景的應用。結合Appier在AI與行銷科技領域的技術積累,相關研究也將持續轉化為產品能力,推動Agentic AI在廣告投放與行銷決策中的落地,協助企業在複雜的數位環境中以更高效率與可靠度實現成長。 (相關報導: 台股表現亮眼,但三分之二上市櫃面臨3大困境!家族企業該如何走穩下一步? | 更多文章 )
















































