這次的AI狂潮,和之前的炒作有什麼不同?企業若想發揮價值,專家點出3大挑戰

2023-08-09 09:45

? 人氣

事實上,目前開源AI模型的創新數量之大令人吃驚。可以預見的是,許多企業將把這些開放模型作為許多案例的首選,而不再依賴目前佔據主導地位的大型專有LLM。

[啟動LINE推播] 每日重大新聞通知

這些開放的專用模型將充分利用企業獨有的知識財產——領域專用資料。我們可以在專門的基礎設施上經濟且高效地運行這些較小的AI系統,包括更加便宜的GPU(圖形處理單元)以及經過改良的低成本CPU,提供AI工作負載所需要的性能和輸送量。透過降低成本以及構建兼具靈活性和選擇性的解決方案,開闢一條對於主流企業來說更加可及的AI創新路徑。

(延伸閱讀:不想害投資人賠錢!研華董事長劉克振:我們不是AI概念股,沒有爆紅這回事

挑戰二:將專業的AI知識 變成普通人可以理解的AI知識

如今,AI模型的構建、微調和運行都需要高度專業化的人才,而且這些人才供不應求,執行長和資訊長幾乎都會把這列為首要難題之一。他們敏銳地意識到AI開源軟體領域發展迅速,並且希望在最新的創新成果出現時,能夠快速、輕鬆地遷移過去,而不會被鎖定在任何一個平台或廠商上。如果只有很小一部分專業技術人員懂得當今AI模型背後的「奧秘」,那麼就很難實現這種適應性。

Raghu Raghuram認為,為了填補這一技能缺口,需要從根本上簡化構建和訓練AI模型的流程與工具。這便是參考架構的「用武之地」,大部分由於內部人員缺乏相關專業知識,而無法從頭開始構建AI解決方案的企業機構可透過它獲得藍圖和可行的途徑。

挑戰三:將風險變成信用

最後或許也是最重要的一點是,我們需要將風險變成信用。

Raghu Raghuram指出,當前的AI模型會帶來隱私問題、法律和監管問題、智慧財產權洩露等巨大的風險。這些風險有可能損害公司聲譽、傷害客戶和員工並對收入產生負面影響。

在員工不小心將敏感的內部資料洩露到ChatGPT等工具上後,許多企業開始限制員工使用生成式AI工具。同時,當今的生成式AI系統還缺乏基本的信用,它們經常會產生「幻覺」,創造出無意義、無關或不準確的新內容。

因此,企業需要制定一套強有力的道德準則來保障並加強公平性、隱私性、責任追究、他人的智慧財產權以及訓練資料的透明度。一個龐大且不斷擴張的組織生態正在努力解決AI可解釋性、資料完整性和資料隱私等核心問題。這個開源社群正作為這場運動的中心進行創新,努力幫助企業以安全可控的方式訓練和部署AI模型。

下一輪技術創新浪潮

Raghu Raghuram指出,正如行動應用革命在過去15年中改變了商業以及我們與技術的關係,新一輪AI應用浪潮將大幅提升工作者的生產力並加快全球經濟發展,「我們正處於新一輪超級創新週期的初期,共同面臨的挑戰是如何讓這項強大的新技術變得更加經濟、可實現和可信。」

Raghu Raghuram表示,世界各地AI決策者普遍認為需要實現戰略上的平衡,也就是於存在未知因素的情況下謹慎行事,尤其是在保密、隱私和專有資訊濫用方面。與此同時,還必須讓企業能夠快速接受新的AI模型,這樣他們才能以負責和道德的方式參與到下一輪創新浪潮中。

喜歡這篇文章嗎?

林彥呈喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章