根據韓國媒體 Economist 和 SBS 報導,Samsung 在引進聊天型 AI 機器人 ChatGPT 後不久,就發生了機密資料外洩事故。近期被指出,部分 Samsung 內部資料,如半導體設備測量數據和產品良率等,已經被錯誤地存入 ChatGPT 的學習資料庫中。
內部資料變成 ChatGPT 學習數據
這些外洩事件主要源於 Samsung 員工在使用 ChatGPT 時的誤用或濫用。據報導,共發生了三次事故,其中兩次涉及半導體設備,另一次涉及會議內容。Samsung 員工在使用 ChatGPT 查詢問題並驗證答案時,不慎將這些資訊添加到 ChatGPT 的學習資料庫中。若其他使用者在 ChatGPT 上提出相關問題,可能導致 Samsung 企業機密外洩。
提示員工勿輸入敏感資料
為防止此類事故再次發生,Samsung 正在制定相應的保護措施。如果類似事件繼續發生,Samsung 內部可能會切斷 ChatGPT 服務。有消息稱,Samsung 正考慮通過其創新中心開發專屬的 AI 服務。
Samsung 已經通過公告提醒員工注意在使用 ChatGPT 時的方式,並強調在輸入內容後,相關資料將被傳送到外部伺服器,無法收回。使用者應避免在 ChatGPT 中輸入敏感資料,以防止機密外洩。
限制提問字數
事實上, ChatGPT 的使用指南也明確要求「使用者不要輸入敏感內容」。儘管最初因擔心機密外洩,所以 Samsung 初時是禁止使用 ChatGPT,但自 3 月 11 日起,Samsung 允許其半導體和裝置解決方案部門(DS)使用 ChatGPT,而裝置體驗部門(DX)仍禁用該服務。
然而,在放寬政策不到 20 天後,就爆出機密外洩事件,引起了 Samsung 的警惕。作為應對措施,Samsung 緊急將 ChatGPT 提問字數限制在 1,024 字節以下,以降低資料外洩風險。日後,若再次發生類似事件,Samsung 可能會對相關人員進行懲處。