AI安全議題再起!研究人員揭示ChatGPT訓練資料外洩的風險

近期,來自Google DeepMind、華盛頓大學、康乃爾大學、蘇黎世聯邦理工學院、加州大學柏克萊分校,以及卡內基美隆大學的10名AI研究人員,共同提交了一份重要的研究報告,該報告揭示了基於GPT-3.5 Turbo的ChatGPT存在訓練資料外洩風險,並提出了引人深思的問題。

研究人員指出,即使是像ChatGPT這樣強大的AI模型,也無法完全防止訓練資料外洩的攻擊。他們發現,只要簡單地要求ChatGPT重複輸入特定文字,如”poem”或”company”等單字,攻擊者就可以成功攻陷該系統,使其洩露訓練資料。這引發了對於AI模型安全性的深刻關切,因為訓練資料可能包含敏感的隱私、機密和國家安全相關的信息。

更令人擔憂的是,研究人員發現,僅花費200美元的ChatGPT查詢價格,就可能獲取超過1萬個獨特的逐字記憶訓練案例,反映出模型直接記憶其訓練資料。這樣的外洩可能對個人隱私和機構安全造成嚴重威脅。

對於AI模型的開發者和使用者來說,這項研究提出了一些重要的問題。開發者通常會努力確保模型不會外洩訓練資料,但這個研究顯示,即使是最強大的模型也不容忽視外洩風險。此外,開發者可能也關心模型的記憶和反芻資料的頻率,以避免建立具有完全反芻訓練資料的產品。

研究人員建議,開發者不應僅測試對齊過的模型,而應直接測試基礎模型,並在生產環境中對系統進行測試,以確保建立在基礎模型之上的系統不會外洩訓練資料。此外,發布大型模型的公司應該進行內部測試、用戶測試和第三方測試,以確保模型的安全性和可靠性。

儘管這項研究揭示了一些嚴重的安全問題,但也提醒我們,修補漏洞和解決問題是兩回事。我們必須共同努力,確保AI技術的安全性和隱私保護,以應對不斷增加的數字安全挑戰。