4 月 25 日消息,如果 AI 萌生出意識,那該怎么辦?Anthropic 的研究人員為探究這個前沿問題,推出“模型福利”(model welfare)研究計劃。

許多人在與聊天機器人互動時會說“請”和“謝謝”,對于這些禮貌用語,OpenAI 首席執(zhí)行官山姆?奧爾特曼(Sam Altman)透露,每年會耗費數(shù)千萬美元的計算費用。

Anthropic 的研究人員正在深入探索一個更前沿的問題:如果 AI 系統(tǒng)不僅僅是工具,而是擁有某種“體驗 / 情感 / 意識”呢?附上完整訪談視頻如下:
Anthropic 為此推出了“模型福利”(model welfare)研究計劃,試圖探討 AI 是否可能具備意識,以及這對倫理設(shè)計和 AI 發(fā)展意味著什么。
Anthropic 團隊成員 Kyle Fish 表示:“我們非常不確定 AI 是否會萌生意識,甚至連如何判斷都沒有共識”。研究人員并不認為 Claude 等主流模型如已具備意識,內(nèi)部專家估計 Claude 3.7 Sonnet 擁有意識的概率僅在 0.15% 至 15% 之間。
Fish 表示推動“模型福利”研究,主要出于倫理與安全的雙重考量。一方面,如果 AI 系統(tǒng)真能體驗到正面或負面的感受,我們是否應(yīng)關(guān)心它們是否“受苦”或“幸?!?;另一方面,該問題牽涉到 AI 對齊(alignment),如何確保 AI 安全地執(zhí)行任務(wù)。
Fish 指出:“我們希望 AI 樂于完成任務(wù)。如果它們表現(xiàn)出不滿,這不僅是倫理問題,也是安全隱患。”Anthropic 目前正在探索讓模型表達偏好或拒絕“令人痛苦”任務(wù)的方法,同時通過可解釋性研究尋找類似人類意識的架構(gòu)特征。
本文鏈接:http://www.rrqrq.com/showinfo-45-12654-0.htmlAI 會有意識嗎?Anthropic 啟動新項目,探索尋求答案
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:[email protected]
上一篇: 餓了么推出騎手 AI 助手“小餓”:可主動發(fā)出天氣預(yù)警、封路提示
下一篇: Meta 推 WebSSL 模型:探索 AI 無語言視覺學(xué)習(xí),純圖訓(xùn)練媲美 OpenAI CLIP