天天看點

首起ChatGPT晶片機密洩露!三星成受害者

芯東西4月3日消息,據韓媒報道,三星裝置解決方案(DS)部門才啟用聊天機器人ChatGPT 20多天,就鬧出了3起資料洩露事故,導緻其與半導體裝置測量、良品率/缺陷、内部會議内容等相關資訊被上傳到ChatGPT的伺服器中。

這一事件立即引起了南韓全網的關注與熱議。DS部門主管三星的存儲、晶片設計、晶圓代工等半導體核心業務,自今年3月11日起允許員工使用ChatGPT。結果有3位員工為了“圖省事”,把機密資料送到海外了。

美國人工智能(AI)企業OpenAI是ChatGPT的開發商,但這3起洩密事故的鍋可背不到OpenAI頭上。在ChatGPT使用指南中,OpenAI已經明确說明輸入ChatGPT聊天框的文本内容會被用于進一步訓練模型,警告使用者不要送出敏感資訊。

三星已采取限制ChatGPT輸入問題長度、限制辦公電腦使用等緊急措施,籌備以防再發生類似資訊洩露事故的保護措施,并正考慮在建構自己的人工智能服務。目前,多家海外企業已采取措施阻止或限制員工使用ChatGPT。

一、3位員工将三星機密資料輸入ChatGPT

美國初創公司OpenAI會擷取使用者們在ChatGPT輸入的内容,并将這些資料用于進一步訓練模型。如果使用者提問的内容涉及企業機密,相關内容将會遭到大範圍洩露。OpenAI也在ChatGPT使用指南中告知“不要輸入敏感内容”。

三星電子擔心ChatGPT的内部使用可能會發生公司内部機密等資訊洩露的問題,一直在阻止在企業内使用ChatGPT。但從3月11日開始,DS部門允許使用ChatGPT。負責影像顯示、家電、移動通信、醫療裝置等業務的三星裝置體驗部門(DX部門)目前還禁止使用ChatGPT。

允許DS部門使用ChatGPT的原因是該部門負責人認為員工有必要認識到當代技術發生的變化。三星隻是允許使用ChatGPT,并向員工們釋出公告稱:“注意公司内部資訊安全,不要輸入私人内容。”

DS部門實施這項營運政策不到20天,就發生了令人擔憂的“公司内部資訊洩露”事故。三星電子掌握的事故内容為兩起“裝置資訊洩露事故”和一起“會議内容洩露事故”。三星在得知相關事實後,實施了“緊急措施”事項,包括将每個問題的上傳容量限制在1024位元組。三星計劃調查企業資訊洩露事故經過,必要時給予當事員工懲戒。

▲ChatGPT(圖源:韓聯社)

三星電子DS部門員工A某在運作半導體裝置測量資料庫(DB)下載下傳程式的源代碼時發生了錯誤。于是他複制所有有問題的源代碼,輸入ChatGPT,詢問解決方法。

員工B某将為“裝置測量”及“産量和缺陷”編寫的程式代碼整個相關源輸入ChatGPT,要求其優化代碼。

員工C某通過NAVER Clova應用程式(APP)将用智能手機錄制的會議内容轉換為文檔檔案後,輸入到ChatGPT中,目的是要求制作會議記錄。

三星電子向員工通告了上述情況,并提醒員工謹慎使用ChatGPT。三星通過内部公告警示說:“在ChatGPT中輸入内容的瞬間,資料就會發送到外部伺服器并存儲,公司無法收回。如果ChatGPT學習相關内容,敏感内容可能會提供給不特定的多數人。”

二、三星電子提高對生成式AI了解,限制使用ChatGPT

三星電子正在制定防止通過ChatGPT洩露資訊事故再次發生的保護措施方案。該公司告知員工:“如果在采取資訊保護緊急措施後仍發生類似事故,公司内部網可能會阻止ChatGPT連接配接。”

一位三星電子相關人士對詢問此次資訊洩露事故的記者說:“因為是公司内部情況,很難确認。”

▲南韓三星電子公司(圖源:韓聯社)

三星電子認為生成式AI可能會使半導體生态系統發生變化,是以敦促管理層采取應對措施。上月22日,以全體高管為對象,以“ChatGPT登場,生成式AI創造未來”為主題舉行了線上研讨會。三星電子副會長韓鐘熙曾強調ChatGPT的重要性,強調有必要提高對生成型AI的了解。

為了防止今後公司主要機密和個人資訊等洩露,DX部門就ChatGPT的使用情況對公司員工進行問卷調查。 問卷不僅包括詢問是否有使用ChatGPT的經驗,還包括詢問對公司内部使用ChatGPT的看法等内容。

三星電子計劃以問卷調查結果為基礎,制定上傳容量限制或業務PC(個人電腦)使用限制等内部規定,并與員工共享。

三星電子裝置解決方案部門(DS部門)在最近的公告欄上釋出了提醒注意ChatGPT誤用的資訊。各組長還對組員進行了ChatGPT可用範圍等教育訓練。

三、各大公司限制ChatGPT使用,制定ChatGPT使用指南

半導體業務大部分屬于國家機密,一不小心就會上傳報告等内部資訊,洩露機密。全球鋼鐵制造廠巨頭南韓浦項制鐵為了防止通過ChatGPT洩露資訊,正在準備通過内部Intranet(企業内部網)利用ChatGPT的途徑,向員工進行引導。浦項制鐵公司在内部協作平台“Teams”中引入ChatGPT功能,隻在内部系統内使用ChatGPT,進而同時加強安全性和工作效率。

市場調查公司Gartner對62名企業人事負責人進行了問卷調查,結果顯示,其中48%的人表示正在制定ChatGPT等AI聊天機器人業務的使用指南。

全球第二大存儲晶片巨頭南韓SK海力士除必要時刻外幾乎禁止公司内部網使用ChatGPT。

南韓液晶面闆龍頭公司LG Display通過公司内部文章和教育、活動等,随時強調公司内部資訊保護和防止洩露等資訊安全認識。海外因擔心機密資訊洩露而限制使用ChatGPT的企業越來越多。各家公司擔心如果在ChatGPT中輸入資訊,AI可能會學習并洩露給外界。

最近,JP摩根大通、美國銀行、花旗集團、高盛、德意志銀行等美國銀行限制使用ChatGPT等AI聊天機器人。

據《日本經濟新聞》等媒體報道,日本軟銀集團最近向全體員工通報了禁止在ChatGPT中輸入機密資訊等注意事項,該集團還計劃制定了哪些業務或用途可以使用互動式AI的規則。

在日本,瑞穗金融集團、三菱UFJ銀行、三井住友銀行禁止将ChatGPT等互動式AI用于業務。此外,松下控股旗下松下Connect在制定資訊洩露對策後才允許使用互動式AI。富士通設定了“AI倫理治理室”,提醒使用者使用互動式AI時的注意點。

一位南韓商界相關人士稱,ChatGPT一直以來都是熱門話題,現在大家都在試着使用和學習,企業也需要更加警惕資訊洩露等問題。

結語:三星電子企業機密洩露,制定ChatGPT使用的保護措施

三星電子準許内部使用ChatGPT不久後,公司内部與半導體“裝置測量”及“産量和缺陷”有關的程式内容被傳送到美國。ChatGPT在聊天界面和輸入的資訊極有可能會洩露,關于這一點并沒有任何安全保障。各大公司紛紛意識到了這一點并立馬開始建立完善的ChatGPT使用說明以提示員工謹慎使用這一軟體。

ChatGPT像一把雙刃劍,在為大家提出各種問題解決方案的同時,也讓提問者經受着輸入資訊被洩露的風險。要想安全有效的使用這一軟體,還需提高謹慎,在有完善的資訊保護體系之前,不要輸入任何有關企業機密資訊的問題。

來源:韓聯社、南韓《經濟學人》

繼續閱讀