用ChatGPT可能會有侵權問題?5條職場AI安全守則,讓AI當你的好助手

2023-12-14 13:28

? 人氣

用ChatGPT可能會有侵權問題?(示意圖,取自pexels)

用ChatGPT可能會有侵權問題?(示意圖,取自pexels)

ChatGPT推出至今已滿周年。過去1年來,生成式AI帶動不少市場和產業話題,還激勵輝達等科技股大漲,讓2023年那斯達克指數在上半年漲幅創幾十年來新高。除此之外,生成式AI也進入職場當中,很多人嘗試用ChatGPT解決工作上的問題,希望能減輕負擔。

[啟動LINE推播] 每日重大新聞通知

最顯著的效益是,生成式AI能取代許多繁瑣的機械性任務,提升人們的工作效率,增加企業競爭力。然而生成式AI也帶來新風險,訊息錯誤、偏見與侵權問題開始浮現。因此如何安全適當的使用AI成為重要課題,許多公司也開始制定工作場所使用相關規範。

免費訂閱電子報連結圖

《華爾街日報》則提出5個在職場使用生成式AI要注意的事項,供上班族和業者參考。

《華爾街日報》報導:The Do’s and Don’ts of Using Generative AI in the Workplace

一,AI易造成幻覺,不要完全信任生成的內容

AI有「幻覺」問題,會產生錯誤的訊息,代表生成式AI的內容並非百分之百正確;而且AI幻覺有時候難以察覺,若使用者完全相信AI提供的資訊,就會帶來風險。因此在使用相關內容之前,必須確認生成式AI所使用的資料來源,以降低內容錯誤的風險。

還有一個方法是,公司可以和生成式AI開發公司合作,使用公司所提供的資料訓練AI,就可以避免外部的錯誤資訊。也有公司開發自己的程式,作為公司與外部生成式AI的中介和緩衝,保障資訊安全性。例如金融服務公司Ally Financial開發自家的AI平台Ally.ai,能辨識外部生成式AI產生的幻覺,降低員工使用錯誤資訊的可能性。

另外,因為AI可能會出錯,所以企業若要使用這類資訊,必須保持公開透明,讓客戶清楚知道,接收到的檔案含有生成式AI產生內容,給客戶一個判斷依據,決定是否要全盤相信該檔案的內容。

二,AI會拿使用者資訊自我訓練,不要輸入商業機密

使用生成式AI時,它會儲存你輸入到對話框的內容,用來自我訓練,所以當別人使用生成式AI時,它就有可能提供你輸入的內容,而且內容種類多元,程式碼、客戶資訊、公司會議、電子郵件的文字記錄,以及公司財務數據都有可能因此洩露給第三方。

要避免這種狀況,就是切勿提供機密資訊。有不少公司訂下規則,禁止或限制員工使用ChatGPT等公共生成式AI,避免公司資訊外流。

三,要留心AI偏見,因為它是用人類數據訓練的

雖然相較於人類,生成式AI比較不會有情緒問題,能夠理性、客觀的提供資訊,但AI仍可能產生偏見。因為生成式AI是用公開的資料庫訓練,而這種資料庫有人口統計偏差,所以AI也會學到人性中的偏見。例如人類社會中的歧視與不平等問題,可能會讓AI決定不雇用女性當程式設計師,或者是不提供貸款給有色人種。只不過這種偏見不容易被發現。

喜歡這篇文章嗎?

金牛幫幫忙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章