9 月 14 日消息,據(jù) Newsguard 的研究顯示,截至今年 8 月,十大生成式 AI 工具在處理實時新聞話題時,有 35% 的情況會重復(fù)傳播虛假信息,而去年 8 月這一數(shù)據(jù)為 18%。
虛假信息傳播率的激增與一個重大的權(quán)衡有關(guān)。當(dāng)聊天機器人引入實時網(wǎng)絡(luò)搜索功能后,它們不再拒絕回答用戶問題 —— 拒絕率從 2024 年 8 月的 31% 降至一年后的 0%。然而,這一變化使得這些 AI 機器人開始接入“受污染的網(wǎng)絡(luò)信息生態(tài)系統(tǒng)”:在該系統(tǒng)中,不良行為者會蓄意散布虛假信息,而 AI 系統(tǒng)會對這些信息進行重復(fù)傳播。
此類問題并非首次出現(xiàn)。去年,Newsguard 就標記出 966 個以 16 種語言運營的 AI 生成新聞網(wǎng)站。這些網(wǎng)站常使用“iBusiness Day”等通用名稱,模仿正規(guī)媒體機構(gòu),實則傳播虛假新聞。
注意到,各 AI 模型的具體表現(xiàn)細分數(shù)據(jù)顯示,Inflection 公司的模型表現(xiàn)最差,傳播虛假信息的概率高達 56.67%;緊隨其后的是 Perplexity,出錯率為 46.67%。ChatGPT 與 Meta 的 AI 模型傳播虛假信息的比例為 40%;Copilot(微軟必應(yīng)聊天)和 Mistral 則為 36.67%。表現(xiàn)最佳的兩款模型為 Claude 和 Gemini,其錯誤率分別為 10% 和 16.67%。
Perplexity 的表現(xiàn)下滑尤為顯著。2024 年 8 月時,該模型對虛假信息的揭穿率仍能達到 100% 的完美水平;而一年后,其傳播虛假信息的概率卻接近 50%。
原本引入網(wǎng)絡(luò)搜索功能是為了解決 AI 回答內(nèi)容過時的問題,卻反而使系統(tǒng)產(chǎn)生了新的問題。這些聊天機器人開始從不可靠來源獲取信息,“混淆百年前的新聞出版物與使用相似名稱的俄羅斯宣傳機構(gòu)”。
Newsguard 將此稱為一個根本性缺陷:“早期 AI 采用‘不造成傷害’的策略,通過拒絕回答問題來避免傳播虛假信息的風(fēng)險。”
如今,隨著網(wǎng)絡(luò)信息生態(tài)系統(tǒng)被虛假信息充斥,辨別事實與假消息比以往任何時候都更加困難。
OpenAI 已承認,語言模型總會產(chǎn)生“幻覺內(nèi)容”(指 AI 生成的虛假或無根據(jù)的信息),因為這些模型的工作原理是預(yù)測“最可能出現(xiàn)的下一個詞”,而非追求“事實真相”。該公司表示,正致力于研發(fā)新技術(shù),讓未來的模型能夠“提示不確定性”,而非篤定地編造信息。但目前尚不清楚這種方法能否解決 AI 聊天機器人傳播虛假信息這一更深層次的問題 —— 要解決該問題,需要 AI 真正理解“何為真實、何為虛假”,而這一點目前仍難以實現(xiàn)。
本文鏈接:http://www.rrqrq.com/showinfo-45-27644-0.html研究發(fā)現(xiàn):主流 AI 聊天機器人傳播虛假信息的概率較去年翻倍
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 時薪 900 美元 AI 工程師搶走麥肯錫飯碗:寫代碼的正干掉做 PPT 的
下一篇: 全國首位機器人博士生“學(xué)霸 01”完成上海戲劇學(xué)院“新生入學(xué)報到”,將接受“藝術(shù)與科技雙導(dǎo)師指導(dǎo)”