雖然很難相信一間大型企業,居然會對於這類工具的洩密問題沒有相關規定進行設防。總之,三星最近才剛宣布將開放讓半導體部門的員工擁抱 ChatGPT 用做輔助工具,希望能藉此達到更高的工作效率。然而近日卻有報導指出,這樣的政策開放之後才約莫 20 天,竟然發生了不只一起的洩密狀況。繼續閱讀三星開放工程師運用 ChatGPT 未滿月就出事,爆 3 起機密洩漏事件… 報導內文。
▲圖片來源:Samsung
三星開放工程師運用 ChatGPT 未滿月就出事,爆 3 起機密洩漏事件…
雖然很難相信一間大型企業,居然會對於這類工具的洩密問題沒有相關規定進行設防。總之,三星最近才剛宣布將開放讓半導體部門的員工擁抱 ChatGPT 用做輔助工具,希望能藉此達到更高的工作效率。然而近日卻有報導指出,這樣的政策開放之後才約莫 20 天,竟然發生了不只一起的洩密狀況。
重點在,由於 OpenAI 的政策使然,即便 ChatGPT 的隱私條款有提到並不會保存個人資訊,但基本上除非使用者有特別選擇排除(Opt-out)自己的資料被用於大型語言模型的最佳化與改進用途,否則傳送出去的相關的敏感資料就將會被保留在資料庫中無法被刪除。
“ChatGPT 不會保存使用者的任何個人信息,但會記錄使用者與 ChatGPT 之間的交互歷史,用於模型的優化和改進。”
現在看來,三星開放使用 ChatGPT 的政策,不僅沒有對於員工有完善的保密規範,更沒有針對該服務有進行必要的相關設定。因此,報導中所提到的三個案例中,無論是拿機密原始碼來查錯,或者是希望能最佳化程式碼,乃至於把機密會議資料給透過 AI 整理出會議紀錄的例子。
雖然都算是善用 AI 的很棒方向,只是這幾位員工以及三星本身似乎都沒有預料到,這些敏感資料也等於直接送給了其他公司。
講起來,就 ChatGPT 目前僅會限定於利用 2021 年以前資料的原則來說。基本上筆者是認為其實也不用太擔心 ChatGPT 會直接照單全收把機密資料洩露給別人 – 之所以 OpenAI 提到會有搜集資料的需求,應該主要是希望將對答的歷程或遇到的問題做為改進聊天機器人的參考。
當然,這是樂觀的說法。畢竟資料在別人那邊,相信對於視機密為重要資產的大公司而言,這樣的情況絕對是如坐針氈,深怕哪天會看到三星寫程式的手路邏輯也被拿來幫忙其他人解決問題…
▲圖片來源:Samsung
有意思的是,雖說目前還是有先透過限制員工 ChatGPT 僅能使用 1024 bytes 的流量嘗試減緩災情。但即便出事頻率這麼高,其實三星也沒有真的直接縮手完全禁止員工使用 AI。還有傳出可能更積極地思考,自行打造類似的服務來避免這類事件再度發生。
誒,難不成 Bixby 會歪打正著因為這樣進化?結果三星會因洩密問題,而站出來挑戰現有對手如 Google Bard、Bing Chat 以及 ChatGPT 的新玩家嗎 – 不得不說,這樣的出道方式也太有創意了吧。