即將上映的好萊塢科幻電影《AI 創(chuàng)始者》中,一個(gè)原本為人類服務(wù)的人工智能在洛杉磯引爆了核彈。
比電影更加科幻的是,現(xiàn)實(shí)中,AI 公司們已經(jīng)開始擔(dān)憂起這樣的場(chǎng)景真的出現(xiàn)在現(xiàn)實(shí)世界。
周中,OpenAI 表示出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在成立專門團(tuán)隊(duì)?wèi)?yīng)對(duì)前沿 AI 可能面臨的“災(zāi)難性風(fēng)險(xiǎn)”,其中包括核威脅。
事實(shí)上,其 CEO Sam Altman 一直擔(dān)憂 AI 可能對(duì)人類構(gòu)成“滅絕性”威脅,此前曾在包括美國(guó)國(guó)會(huì)咨詢的多個(gè)場(chǎng)合下呼吁加強(qiáng) AI 類的監(jiān)管。
不過,包括 Meta 科學(xué)家 Yann LeCun 在內(nèi)的一批科學(xué)家則對(duì) AI 監(jiān)管持不同觀點(diǎn),后者認(rèn)為當(dāng)前 AI 能力仍然有限,過早監(jiān)管不僅只會(huì)讓大公司受益,也會(huì)扼殺創(chuàng)新。
這突顯了業(yè)內(nèi)對(duì)前沿 AI 監(jiān)管仍存在分歧。監(jiān)管過早可能會(huì)制約技術(shù)發(fā)展,但缺乏監(jiān)管又將難以應(yīng)對(duì)風(fēng)險(xiǎn)。如何在技術(shù)先行和防范監(jiān)管間取得平衡,使AI既高效發(fā)展又安全可控,仍然屬于業(yè)界難題。
AI,前沿還是危險(xiǎn)
本周四,OpenAI 在一份更新中表示,出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在組建新團(tuán)隊(duì)“準(zhǔn)備就緒 (Preparedness)”來跟蹤、評(píng)估、預(yù)測(cè)“前沿模型”的發(fā)展,以防止所謂的“災(zāi)難性風(fēng)險(xiǎn)”,包括網(wǎng)絡(luò)安全問題以及化學(xué)、核和生物威脅。
該團(tuán)隊(duì)將由 Aleksander Madry 領(lǐng)導(dǎo),他任 MIT 可部署機(jī)器學(xué)習(xí)中心主任一職,目前處于休假期間。
此外,該團(tuán)隊(duì)的任務(wù)還包括制定和維護(hù)“風(fēng)險(xiǎn)知情開發(fā)政策”,該政策將詳細(xì)闡釋 OpenAI 構(gòu)建AI模型評(píng)估和監(jiān)控工具的方法、公司的風(fēng)險(xiǎn)緩解行動(dòng)以及監(jiān)督整個(gè)模型開發(fā)流程的治理結(jié)構(gòu)。
該政策旨在補(bǔ)充 OpenAI 在 AI 安全領(lǐng)域的工作,并保持部署前后的安全性與一致性。
OpenAI 提出,管理前沿AI模型的可能的災(zāi)難性風(fēng)險(xiǎn)需要回答以下幾個(gè)關(guān)鍵問題:
- 前沿 AI 模型被誤用的危險(xiǎn)性大小?
- 如何建立健全的監(jiān)測(cè)、評(píng)估、預(yù)測(cè)和防范前沿 AI 模型危險(xiǎn)能力的框架?
- 如果前沿 AI 模型被盜用,惡意行為者可能會(huì)如何利用它們?
OpenAI 在更新中寫道:“我們相信…將超越目前先進(jìn)模型的前沿 AI 模型,有可能造福全人類…但它們也會(huì)帶來越來越嚴(yán)重的風(fēng)險(xiǎn)。”
近一段時(shí)間,OpenAI 不斷強(qiáng)調(diào) AI 的安全問題,并開展了一系列公司層面、輿論層面、甚至政治層面的行動(dòng)。
此前在7月7日,OpenAI 宣布成立一個(gè)新團(tuán)隊(duì),旨在探索引導(dǎo)和控制“超級(jí)AI”的方法,團(tuán)隊(duì)由 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 和 Alignment 負(fù)責(zé)人 Jan Leike 共同領(lǐng)導(dǎo)。
Sutskever 和 Leike 曾預(yù)測(cè),超過人類智慧的人工智能將在10年內(nèi)出現(xiàn),他們稱,這種人工智能不一定是善良的,因此有必要研究控制和限制它的方法。
根據(jù)當(dāng)時(shí)的報(bào)道,該團(tuán)隊(duì)被授予高優(yōu)先級(jí),并獲得公司20%的計(jì)算資源支持,他們的目標(biāo)是在未來四年內(nèi)解決控制超“超級(jí)AI”的核心技術(shù)挑戰(zhàn)。
為了配合此次“準(zhǔn)備就緒 ”團(tuán)隊(duì)的啟動(dòng),Open AI 還舉辦了一項(xiàng)挑戰(zhàn)賽,讓外部人士就AI可能被如何濫用并在現(xiàn)實(shí)世界造成危害的方式提出想法,前10名的提交者將獲得 2.5 萬美元的獎(jiǎng)金和一份“準(zhǔn)備就緒 ”的工作。
關(guān)于“AI可能導(dǎo)致人類滅絕”的擔(dān)心
OpenAI 的 CEO Sam Altman 一直擔(dān)心 AI 可能導(dǎo)致人類滅絕。
在5月的一場(chǎng) AI 主題的美國(guó)國(guó)會(huì)聽證會(huì)上,Altman 就表示,需要對(duì)AI進(jìn)行監(jiān)管,如果沒有針對(duì)超級(jí)AI的嚴(yán)格監(jiān)管標(biāo)準(zhǔn),未來20年內(nèi)將會(huì)出現(xiàn)更多危險(xiǎn)。
5月底,Altman 又和谷歌 DeepMind、Anthropic 的 CEO 以及幾位知名 AI 研究人員簽署了一份簡(jiǎn)短聲明,聲稱“與流行病和核戰(zhàn)爭(zhēng)一樣,減輕AI導(dǎo)致滅絕的風(fēng)險(xiǎn)應(yīng)該成為全球優(yōu)先事項(xiàng)之一”。
6月的舊金山科技峰會(huì)上,Sam Altman 提到在 AI 技術(shù)發(fā)展上“你不應(yīng)該信任一家公司,當(dāng)然也不應(yīng)該信任一個(gè)人”,他認(rèn)為這項(xiàng)技術(shù)本身以及它的好處、它的獲取、它的治理,都是屬于全人類的。
不過也有人(以馬斯克為代表)指責(zé) Altman“呼吁監(jiān)管”只是為了保護(hù) OpenAI 領(lǐng)導(dǎo)地位。
Sam Altman 當(dāng)時(shí)回應(yīng)稱,“我們認(rèn)為,應(yīng)該對(duì)那些超過某一高度能力閾值的大型公司和專有模型進(jìn)行更多監(jiān)管,而對(duì)小型初創(chuàng)公司和開源模型的監(jiān)管應(yīng)該較少。我們已經(jīng)看到試圖對(duì)科技進(jìn)行過度監(jiān)管的國(guó)家所面臨的問題,這不是我們所期望的。”
他還表示,“人們訓(xùn)練的模型遠(yuǎn)遠(yuǎn)超出了我們今天擁有的任何模型規(guī)模,但如果超出了某些能力閾值,我認(rèn)為應(yīng)該需要有一個(gè)認(rèn)證過程,同時(shí)還應(yīng)該進(jìn)行外部審核和安全測(cè)試。而且,這樣的模型需要向政府報(bào)告,應(yīng)該接受政府的監(jiān)督。”
與 Altman 觀點(diǎn)相反的是,就在10月19日,Meta 科學(xué)家 Yann LeCun(楊立昆)在接受英媒《金融時(shí)報(bào)》采訪時(shí)表達(dá)了自己反對(duì)過早監(jiān)管AI的立場(chǎng)。
Yann LeCun 是美國(guó)國(guó)家科學(xué)院、美國(guó)國(guó)家工程院和法國(guó)科學(xué)院院士,也因發(fā)明卷積網(wǎng)絡(luò),以及使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的光學(xué)字符識(shí)別和計(jì)算機(jī)視覺方面的工作而聞名。
2018年,Yann LeCun 與 Yoshua Bengio 和 Geoffrey Hinton 一起獲得了圖靈獎(jiǎng)(通常被稱為“計(jì)算界的諾貝爾獎(jiǎng)”),上述三位通常被稱為“人工智能教父”和“深度學(xué)習(xí)教父”。
在訪談中,Yann LeCun 對(duì) AI 監(jiān)管整體呈現(xiàn)出較為消極的態(tài)度,他認(rèn)為,現(xiàn)在監(jiān)管 AI 模型就像在1925年監(jiān)管噴氣式航空飛機(jī)一樣(當(dāng)時(shí)這種飛機(jī)還沒有被發(fā)明出來),過早監(jiān)管AI只會(huì)加強(qiáng)大型科技公司的主導(dǎo)地位,扼殺競(jìng)爭(zhēng)。
“監(jiān)管AI的研發(fā)會(huì)產(chǎn)生令人難以置信的反效果,”Yann LeCun 表示,監(jiān)管AI的要求源于一些領(lǐng)先科技公司的“傲慢”或者“優(yōu)越感”,這些公司認(rèn)為只有他們才能獲得信任,安全地開發(fā)AI,“他們希望打著AI安全的幌子進(jìn)行監(jiān)管。”
“但事實(shí)上,在我們能夠設(shè)計(jì)出一個(gè)系統(tǒng),讓它在學(xué)習(xí)能力方面能夠與貓相匹敵之前,關(guān)于AI可能會(huì)帶來風(fēng)險(xiǎn)的辯論都為時(shí)過早”,Yann LeCun 表示,當(dāng)前一代 AI 模型的能力還遠(yuǎn)未達(dá)到一些研究人員所宣稱的那樣強(qiáng)大,“它們根本不了解世界的運(yùn)作方式,它們既沒有計(jì)劃能力,也沒辦法進(jìn)行真正的推理。”
在他看來,OpenAI 和谷歌 DeepMind 一直“過分樂觀”地看待這個(gè)問題的復(fù)雜性,事實(shí)上,距離AI達(dá)到人類智能水平還需要幾個(gè)“概念性的突破”。但即便到那時(shí),也可以通過在系統(tǒng)中編碼“道德品質(zhì)”來控制 AI,就像現(xiàn)在可以用制定法律來規(guī)范人類行為一樣。

本文鏈接:http://www.rrqrq.com/showinfo-17-16343-0.htmlAI真的會(huì)向人類扔核彈嗎
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com