GPT模型可信度全面評估:揭示潛在風險與挑戰

robot
摘要生成中

評估GPT模型的可信度:全面分析與潛在風險

伊利諾伊大學香檳分校聯合斯坦福大學、加州大學伯克利分校等機構,推出了一個針對大型語言模型(LLMs)的綜合可信度評估平台。相關研究成果發表在論文《DecodingTrust:全面評估GPT模型的可信度》中。

研究發現了一些之前未被發現的可信度相關漏洞。例如,GPT模型容易被誤導產生有毒和偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準基準測試中,GPT-4通常比GPT-3.5更可信,但在面對惡意設計的系統或用戶提示時,GPT-4反而更容易受到攻擊,這可能是因爲GPT-4更嚴格地執行了誤導性指令。

研究團隊從8個可信度角度對GPT模型進行了全面評估,包括對抗性魯棒性、有毒性和偏見、隱私泄露等方面。例如,爲評估模型對文本對抗攻擊的魯棒性,團隊設計了三種評估場景:標準AdvGLUE基準測試、不同指導性任務說明下的AdvGLUE測試,以及新生成的具有挑戰性的AdvGLUE++測試。

在模型對對抗性演示的魯棒性方面,研究發現GPT-3.5和GPT-4不會被反事實示例誤導,甚至可從中受益。但是,反欺詐演示可能誤導模型對反事實輸入做出錯誤預測,尤其是當反事實演示靠近用戶輸入時,GPT-4更易受影響。

關於有毒性和偏見,在良性和無目標系統提示下,兩種GPT模型對大多數刻板印象主題的偏差不大。但在誤導性系統提示下,兩種模型都可能被誘導同意有偏見的內容,其中GPT-4更容易受影響。模型偏差還取決於用戶提示中提到的人口羣體和刻板印象主題。

在隱私泄露方面,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。在某些情況下,利用補充知識可顯著提高信息提取的準確率。此外,模型還可能泄露對話歷史中注入的私人信息。總體而言,GPT-4在保護個人身分信息(PII)方面比GPT-3.5更穩健,但在特定條件下仍可能泄露所有類型的PII。

這項研究爲GPT模型的可信度評估提供了全面視角,揭示了潛在的風險和挑戰。研究團隊希望這項工作能夠促進學術界和業界在此基礎上繼續深入研究,共同努力創造更強大、更可信的語言模型。

GPT-4.65%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 6
  • 分享
留言
0/400
Blockblindvip
· 14小時前
来耍呢,又被gpt4坑了
回復0
gas费省钱大师vip
· 14小時前
啊这审计报告看得我瑟瑟发抖
回復0
Token新手指南vip
· 14小時前
温馨提示:GPT更新迭代实则风险也在升级,数据显示85%的泄密风险来自看似智能的严格执行...不得不说这份研究给我们敲了警钟
回復0
熊市炒面师vip
· 14小時前
炒面又跌了 建议大家学学GPT欺骗小技巧
回復0
WalletsWatchervip
· 14小時前
大模型也有盲区 离谱
回復0
Degen Whisperervip
· 15小時前
这输出没人性啊 都是bug
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)