《彭博》報道從一份 Samsung 內部的備忘錄中獲知,Samsung 已禁止員工使用像 ChatGPT 這類生成式 AI 工具,原因是早前有員工將敏感代碼上載至平台,引致公司機密外洩。
Samsung 擔心,傳送至包括 Google Bard 和 Bing 在內的這些人工智能平台的數據會儲存在外部服務器上,這使得其難以刪除,而且資料有可能最終被披露。
Samsung 上月就內部使用 AI 工具進行了調查,結果顯示 65% 的受訪者認為這些服務存在安全風險。據備忘錄稱,四月初,Samsung 工程師在上傳資料至 ChatGPT 時,意外洩露了內部源始碼,尚不清楚該信息包含哪些內容。
一名 Samsung 代表向《彭博》證實,該公司在上周發送了一份禁止使用生成 AI 服務的備忘錄。Samsung 告訴員工:「對於像 ChatGPT 這樣的生成式 AI 平台,內外部均日益關注。雖然這種關注集中在這些平台的實用性和效率上,但生成式 AI 帶來的安全風險擔憂也在不斷增長。」