天天看點

ChatGPT帶來的潛在安全風險

作者:AI自智體

遠望智庫預見未來 網信前沿觀察

來源:情報分析師

ChatGPT帶來的潛在安全風險

自ChatGPT(Chat Generative Pre-trained Transformer, 聊天生成式預訓練轉換器)于去年11月橫空出世以來,僅僅2個月時間,OpenAI在全球範圍内的活躍使用者就達到了2億,平均每天有1300萬訪客使用ChatGPT,堪稱人工智能領域使用者增長史上的一個奇迹。

随着使用者與訓練資料的激增,ChatGPT的應用場景也逐漸拓寬,寫作業、寫論文、寫代碼、寫PPT、翻譯、校對,甚至是披上網紅的外皮成為虛拟伴侶。

然而随着以ChatGPT領銜的人工智能大軍不斷滲入社會各個角落,相應的法律問題與風險亟需予以重視。

本文圍繞現行相關法律法規,針對ChatGPT使用過程中可能涉及的法律風險進行了整理與探讨。

ChatGPT帶來的潛在安全風險

風險1 – 編造和不準确的回答

ChatGPT帶來的潛在安全風險

ChatGPT和其他語言模型工具最常見的問題之一是傾向于提供錯誤的資訊,盡管這些資訊在表面上看起來是合理的。ChatGPT還容易“産生幻覺”,包括編造錯誤答案和不存在的法律或科學引用。

一、ChatGPT傾向于提供錯誤資訊的原因:

1. 語言模型的局限性:目前的語言模型是基于統計學的算法進行訓練的,是以它所學習到的知識僅限于給定的語料庫。如果語料庫中存在錯誤的資訊,語言模型就會重複這些錯誤。

2. 缺乏實際經驗:語言模型沒有實際的經驗,是以它不知道某些資訊的真實性。例如,語言模型可能會把一份不準确的新聞報道作為事實來回答問題。

3. 人工幹預的不足:在語言模型的訓練過程中,人工幹預的角色非常重要。如果沒有足夠的人工幹預,語言模型可能會受到錯誤資訊的幹擾。

二、ChatGPT容易“産生幻覺”的原因:

1. 對上下文了解的不足:ChatGPT的表現不僅依賴于它的語言模型,也受到它對上下文的了解能力的限制。如果ChatGPT不能正确地了解上下文,它就可能将錯誤資訊解釋為真實的内容。

2. 對資料生成的自信心:ChatGPT對資料驅動模型的了解是基于大量資料,是以在沒有足夠的資料支援的情況下,ChatGPT可能會自信地回答錯誤資訊。

3. 對事實的錯誤掌握:ChatGPT的錯誤資訊可能是由于它沒有正确地掌握事實。這可能是因為它沒有足夠的知識或沒有足夠的經驗來了解事實。

ChatGPT帶來的潛在安全風險
ChatGPT帶來的潛在安全風險

風險2 – 資料隐私和保密性

ChatGPT帶來的潛在安全風險

法律和合規負責人應意識到,如果未禁用聊天曆史記錄,那麼輸入到ChatGPT中的任何資訊都可能成為其訓練資料集的一部分。如果敏感、專有或保密資訊用于提示,它們則可能會被納入到面向企業外部使用者的響應中。

在日常的聊天交流中,或多或少都會涉及到一些敏感、專有或保密的資訊,例如隐私資料、商業機密等。如果這些資訊未被合法地加密或保護,并且未禁用聊天曆史記錄,那麼它們有可能被ChatGPT這樣的自然語言處理工具所擷取,并成為其訓練資料集的一部分。

ChatGPT帶來的潛在安全風險
ChatGPT帶來的潛在安全風險

風險3 – 模型和輸出偏見

ChatGPT帶來的潛在安全風險

OpenAI是為了創造具有人類智能的機器人而成立的人工智能研究組織。ChatGPT是OpenAI研發的一種聊天機器人,可以用自然語言與使用者進行互動。然而,這種聊天機器人中也存在着偏見和歧視的問題。

這些問題的根源是機器學習算法的訓練資料。ChatGPT是通過機器學習算法對大量的聊天資料進行訓練而成的,而這些資料中包含了人們的偏見和歧視。比如,在某些社交媒體上,人們可能會發表一些歧視性言論,而這些言論則成為了ChatGPT的訓練資料之一。

ChatGPT帶來的潛在安全風險
ChatGPT帶來的潛在安全風險

風險4 – 知識産權和版權風險

ChatGPT帶來的潛在安全風險

随着ChatGPT等人工智能技術的出現和普及,需要更加重視保護知識産權的問題。

ChatGPT的訓練需要大量的資料,其中可能包含了許多受版權保護的材料,如果這些材料被用于生成ChatGPT的輸出,就可能會侵犯版權或知識産權。

是以,法律和合規負責人需要密切關注适用于ChatGPT輸出的版權法的變化,以及适用于人工智能技術的知識産權保護的相關法律法規。

為了確定ChatGPT的輸出不侵犯版權或知識産權,使用者需要仔細檢查他們生成的任何輸出,尤其是當它們可能包含被認為是版權或知識産權受保護的内容時。

同時,聊天機器人企業也應該加強對知識産權保護相關法律法規的了解,并在設計和使用ChatGPT等人工智能技術時遵守相應法律法規,以免出現侵權行為。

ChatGPT帶來的潛在安全風險
ChatGPT帶來的潛在安全風險

風險5 – 網絡欺詐風險

ChatGPT帶來的潛在安全風險

惡意行為者已經開始利用ChatGPT來大規模生成虛假資訊,如僞造評論等。不僅如此,使用語言模型的應用程式,包括ChatGPT,也容易受到提示注入的攻擊技術的影響。

這種技術會利用惡意提示來欺騙模型執行不應執行的任務,如編寫惡意軟體代碼或開發類似知名網站的網絡釣魚站點。我們必須加強對這種攻擊的防範,以保障廣大使用者的安全和利益。

ChatGPT帶來的潛在安全風險
ChatGPT帶來的潛在安全風險

風險6 – 消費者保護風險

ChatGPT帶來的潛在安全風險

ChatGPT是一種基于人工智能技術的聊天機器人,能夠為企業提供有效的客戶支援和服務。

然而,很多企業在使用ChatGPT時沒有向消費者透露其使用情況,這可能會引起消費者的不滿和擔憂。

如果企業察覺到這種情況并沒有及時進行糾正,可能會導緻客戶對企業的信任度下降,對企業的品牌形象和口碑造成負面影響。

此外,如果企業未能披露ChatGPT的使用情況,那麼它有可能面臨違反法律規定的風險。例如,根據資料隐私法規,企業必須透明地告知消費者它們如何收集、存儲和使用使用者的個人資料。

如果企業未能披露ChatGPT的使用情況,那麼它可能會被指控違反資料隐私法規,這将給企業帶來嚴重的法律後果。

繼續閱讀