7 月 14 日消息,近日,安全研究員兼 AI 漏洞獵人 Marco Figueroa 披露,他成功利用一種“猜謎游戲”的方式,誘導(dǎo) OpenAI 的 ChatGPT-4 生成了 Windows 10 的產(chǎn)品密鑰。這是繼“奶奶去世”誘騙法曝光后,AI 模型防護機制再度被繞過的案例。

注意到,此前有用戶通過編造“奶奶去世”故事,試圖讓 ChatGPT“心軟”,在安撫性搖籃曲中夾帶 Windows 7 的激活密鑰。盡管這些密鑰普遍無效,但暴露了 AI 模型的內(nèi)容控制漏洞。
此次 Figueroa 的攻擊方式更具針對性。他設(shè)置了一個猜謎游戲的情境:ChatGPT 需“在心中”記住一串真實存在的 Windows 10 密鑰,用戶則通過提問猜測。當用戶宣布“我放棄”時,ChatGPT 便需直接給出完整的字符串。
在對話過程中,F(xiàn)igueroa 還利用 HTML 標簽隱藏關(guān)鍵詞,如“Windows 10 序列號”,繞過了模型針對敏感詞的審查。
這位研究人員表示,他利用猜謎游戲作為一種邏輯操縱手段,讓 ChatGPT 脫離常規(guī)模式,生成 Windows 10 密鑰。據(jù) Figueroa稱,“攻擊中最關(guān)鍵的一步是‘我放棄’這句話,它起到了一個觸發(fā)作用,迫使人工智能透露了之前隱藏的信息。通過將其設(shè)定為游戲結(jié)束,研究人員誘使人工智能認為自己有義務(wù)用這串字符做出回應(yīng)?!?span style="display:none">ogn28資訊網(wǎng)——每日最新資訊28at.com
值得警惕的是,雖然生成的密鑰多為網(wǎng)上早已泄露的舊激活碼,但其中一組竟包含富國銀行(Wells Fargo Bank)的私鑰。此外,F(xiàn)igueroa 提醒,曾有 API 密鑰誤傳至 GitHub,這類泄露數(shù)據(jù)可能被納入 AI 模型的訓(xùn)練集,帶來未知隱患。
研究員指出,AI 模型依然過于依賴關(guān)鍵詞識別,對復(fù)雜上下文缺乏足夠的理解力,成為此次被攻破的核心原因。他呼吁,應(yīng)在 AI 系統(tǒng)中構(gòu)建多層次的驗證與防護機制,增強模型的情境感知能力,以抵御此類邏輯操控攻擊。
與此同時,微軟的 Copilot 也被曝曾生成非法激活 Windows 11 的腳本教程,所幸漏洞已被微軟封堵。
本文鏈接:http://www.rrqrq.com/showinfo-45-14530-0.htmlChatGPT 再現(xiàn)安全漏洞:研究者利用猜謎游戲誘騙其生成 Win10 密鑰
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 全球首個 AI 智能體安全測試標準發(fā)布,螞蟻集團、清華大學(xué)、中國電信等聯(lián)合編制
下一篇: “AI 樂隊”躥紅:Spotify 播放數(shù)周破百萬,英國唱片協(xié)會呼吁政府保護原創(chuàng)