·“我不認(rèn)為了解人工智能安全的唯一途徑,是在現(xiàn)實世界中部署一個系統(tǒng)的數(shù)億個副本,然后觀察結(jié)果。”人類不會對疫苗這么做,“我們在部署疫苗之前必須先測試它,因為我們將把它注射到數(shù)億人身上。”
(資料圖片)
·“我們不了解大型語言模型以及它們?nèi)绾喂ぷ?。我們需要有這種理解,以便對安全有信心。人類構(gòu)建AI系統(tǒng)的技術(shù),不應(yīng)該依賴大量的數(shù)據(jù)訓(xùn)練和內(nèi)部結(jié)構(gòu)未知的黑箱?!?/p>
美國加州大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖爾特·羅素在2023北京智源大會上發(fā)表主旨演講?!叭斯ぶ悄芫拖袷且粔K來自未來的巨大磁鐵在牽引我們前進(jìn),如何確保自己不會被超越人類的智能所控制?”6月10日,美國加州大學(xué)伯克利分校計算機(jī)科學(xué)教授、人類兼容人工智能中心(Center for Human-Compatible AI)主任斯圖爾特·羅素(Stuart Russell)在2023北京智源大會上發(fā)表演講稱,人工智能系統(tǒng)的設(shè)計必須遵循兩個原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應(yīng)該知道這些利益是什么。在對話環(huán)節(jié),羅素與圖靈獎得主、中國科學(xué)院院士姚期智共同探討了人工智能的長期未來及其與人類的關(guān)系,羅素引用中國古代哲學(xué)家孟子“博愛”的觀點(diǎn),“未來,當(dāng)人工智能系統(tǒng)在代表社會做出決策時,應(yīng)當(dāng)合理地考慮到每個人的利益?!?/p>
羅素與他人合著的《人工智能:一種現(xiàn)代的方法》被譽(yù)為人工智能領(lǐng)域最受歡迎的教科書,被135個國家的1500多所大學(xué)采用。2022年,國際人工智能聯(lián)合會議(IJCAI)授予羅素卓越研究獎,他此前已獲得IJCAI計算機(jī)與思想獎,由此成為世界上第二個能夠同時獲得兩項IJCAI主要獎項的科學(xué)家。
通用人工智能還很遙遠(yuǎn)
在北京大會現(xiàn)場,羅素在題為《AI: Some Thoughts?(一些關(guān)于AI的思考)》的演講中對通用人工智能(AGI)做出了定義:通用人工智能是指在大多數(shù)經(jīng)濟(jì)有價值的任務(wù)上超越人類能力的人工智能系統(tǒng)。這種人工智能系統(tǒng)可以比人類更好更快地學(xué)習(xí)和執(zhí)行任何任務(wù),包括人類無法處理的任務(wù),并且由于機(jī)器在速度、內(nèi)存、通信和帶寬方面的巨大優(yōu)勢,未來,通用人工智能在幾乎所有領(lǐng)域都將遠(yuǎn)遠(yuǎn)超過人類的能力。
那么,人類距離通用人工智能還有多遠(yuǎn)的距離呢?羅素表示,我們離通用人工智能還很遙遠(yuǎn)。“事實上,仍然存在許多尚未解決的重大問題?!?/p>
羅素在演講中指出,ChatGPT和GPT-4并不理解世界,也沒有在“回答”問題,“如果說通用人工智能是一件完整的拼圖,大語言模型僅僅只是其中的一塊,但我們并不真正了解如何將它與拼圖的其他部分連接起來,以真正實現(xiàn)通用人工智能?!彼f,“我相信甚至還有部分缺失的拼圖沒有被找到?!?/p>
羅素認(rèn)為,目前的人工智能系統(tǒng)存在一個根本性的弱點(diǎn),即它們使用電路來生成輸出?!拔覀冋噲D從電路中獲得高度智能的行為,而電路本身是一種相當(dāng)有限的計算形式?!彼J(rèn)為,電路無法準(zhǔn)確地表達(dá)和理解一些基本的概念,這意味著這些系統(tǒng)需要大量的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)一些可以用簡單的程序定義的函數(shù)。他認(rèn)為,未來人工智能的發(fā)展方向應(yīng)該是使用基于明確的知識表征的技術(shù)。
“拋開技術(shù)問題不談,如果我們確實創(chuàng)造了通用人工智能。接下來會發(fā)生什么?”羅素引用現(xiàn)代計算機(jī)科學(xué)奠基人艾倫·圖靈的話說,“機(jī)器思維方法一旦開始,用不了多久就會超越我們微弱的力量,這似乎很可怕?!?/p>
“我們?nèi)绾斡肋h(yuǎn)確保自己不會被人工智能所控制?這是我們面臨的問題——如果找不到這個問題的答案,那么我認(rèn)為別無選擇,只能停止開發(fā)通用人工智能?!绷_素表示。
今年3月,羅素曾與特斯拉CEO埃隆·馬斯克、“AI教父”杰弗里·辛頓(Geoffrey Hinton)等上千人簽署公開信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少六個月。
羅素在會上強(qiáng)調(diào),解決問題的答案是有的。人工智能系統(tǒng)的設(shè)計必須遵循兩個原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應(yīng)該知道這些利益是什么。因此,它們不確定人類的偏好和未來,這種不確定性會給人類控制權(quán)。
羅素稱,人們需要改變觀念,不要追求“機(jī)器必須是智能的”,而要注重機(jī)器的“有益性”,使之符合人類的根本利益。“外星人是非常智能的,但我們并不一定希望它們來到地球?!?/p>
AI與孟子的博愛思想
在對話環(huán)節(jié)中,羅素與姚期智進(jìn)行了一場深刻而富有洞見的討論。
在被姚期智問及人工智能與人類關(guān)系的長期未來時,羅素表示,人類利用AI滿足自身利益,從而導(dǎo)致AI不可控的現(xiàn)象源于功利主義,“功利主義是人類進(jìn)步的一個重要步驟,但也導(dǎo)致了一些問題?!崩纾?dāng)一個決定會影響到多少人的實際存在時,如何做出決策?人們想要一個不太幸福的大群體還是一個很幸福的小群體?“對于這類問題,我們沒有很好的答案,但我們需要回答這些道德哲學(xué)的核心問題,因為人工智能系統(tǒng)將擁有強(qiáng)大的力量,而我們最好確保它們以正確的方式使用這種力量。”
羅素與圖靈獎得主、中國科學(xué)院院士姚期智(右)共同探討了人工智能的長期未來及其與人類的關(guān)系。羅素在回答中引用了中國古代哲學(xué)家孟子的觀點(diǎn),“孟子在中國談到了博愛的概念,意思是在做道德決定時,每個人的利益都應(yīng)該被考慮在內(nèi)。而每個人的偏好都應(yīng)該被平等對待?!彼嘈庞幸环N基于復(fù)雜形式的偏好功利主義(preference utilitarianism)的方法,可以使人工智能系統(tǒng)在代表社會做出決策時,能合理地考慮到每個人的利益。
羅素問,當(dāng)有一個人和許多機(jī)器時,如何確保這些機(jī)器相互協(xié)作來幫助人類?當(dāng)許多人有許多機(jī)器時,這就涉及到道德哲學(xué)的基本問題。他認(rèn)為,AI系統(tǒng)應(yīng)該被設(shè)計為代表全人類工作?!叭绻阆胱孉I系統(tǒng)順應(yīng)個人的愿望,那么你必須證明該AI系統(tǒng)的行動范圍被限制在個人關(guān)注的范圍內(nèi),它不能通過追求個人利益來傷害其他個人,因為它并不關(guān)心其他個人。因此,我認(rèn)為默認(rèn)情況應(yīng)該是,人工智能系統(tǒng)是代表人類工作的?!?/p>
此外,在討論中,羅素提到了經(jīng)濟(jì)學(xué)術(shù)語“位置性商品”,“位置性商品”指的是人們重視的并非物品本身,而是它們隱含了優(yōu)于其他人的意義?!盀槭裁粗Z貝爾獎是有價值的?因為別人都沒有,這證明你比世界上幾乎所有人都聰明?!彼f。
“位置性商品的性質(zhì)是,在某種意義上存在零和游戲。簡單地說,不是每個人都能進(jìn)入前1%的行列。因此,如果你從成為1%的人中獲得個人價值、自豪感和自尊心,我們就不能把這種自豪感和自尊心給所有人?!绷_素說。
那么,AI系統(tǒng)在代表社會做決定時,是否應(yīng)該考慮到位置性商品?“如果我們說不應(yīng)該,那就會造成社會運(yùn)行方式的巨大變化。這是一個更加困難的問題。我認(rèn)為社會中的許多內(nèi)部摩擦實際上是由這些位置性商品引起的,這些商品根本不可能由每個人實現(xiàn)?!?/p>
像社交媒體算法一樣危險
姚期智問道,未來是否有可能制定一個“白名單”,允許人工智能系統(tǒng)被用來做有利于人類福祉的事,例如,使用人工智能方法來設(shè)計藥物和解決癌癥問題。
羅素表示,納米技術(shù)的創(chuàng)始人之一金·埃里克·德雷克斯勒(K. Eric Drexler)在過去幾年里一直致力于人工智能安全,他提出了全面人工智能服務(wù)(Comprehensive AI services,CAIS),即建立人工智能系統(tǒng)不是為了通用目標(biāo),而是為了解決特定、狹窄的問題,比如蛋白質(zhì)折疊、交通預(yù)測等。比起通用人工智能,這些系統(tǒng)帶來的大規(guī)模風(fēng)險相對較小。
羅素稱,“在短期內(nèi)這是一個合理的方法”,但是,“我不認(rèn)為了解人工智能安全的唯一途徑,是在現(xiàn)實世界中部署一個系統(tǒng)的數(shù)億個副本,然后觀察結(jié)果。”他表示,人類不會對疫苗這么做,“我們在部署疫苗之前必須先測試它,因為我們將把它注射到數(shù)億人身上?!?/p>
因此,目前還需要更多的工作來確保人們使用這些系統(tǒng)的安全性。羅素指出,人工智能系統(tǒng)可能會通過對話來改變數(shù)億人的觀點(diǎn)和情緒。OpenAI等科技公司應(yīng)該停止在不告知的情況下向數(shù)億人發(fā)布新的人工智能系統(tǒng),這些系統(tǒng)可能會通過對話來操縱和影響人類的思想和行為,導(dǎo)致一些災(zāi)難性的后果,例如核戰(zhàn)爭或氣候災(zāi)難?!叭绻隳芘c數(shù)億人對話,你就能說服這數(shù)億人對其他國家不那么友好,也能說服人們不那么關(guān)心氣候變化?!?/p>
羅素說,“這種情況類似于社交媒體算法,我們甚至沒有意識到它正在改變公共話語、情緒,以及我們?nèi)绾慰创撕臀磥?,這是非常危險的?!薄皬南到y(tǒng)來看,有一些我們沒有辦法檢測到的內(nèi)部目標(biāo),導(dǎo)致AI把我們推向這個方向?!?/p>
那么,如何保證人工智能技術(shù)的安全性和可控性?
“如果AI這項技術(shù)與核武器一樣強(qiáng)大或更強(qiáng)大,我們可能需要以類似的方式管理它?!绷_素稱,“在核武器技術(shù)發(fā)明之前,曾有物理學(xué)家認(rèn)為,我們需要有一個治理結(jié)構(gòu),以確保技術(shù)只用于人類利益,而不是以武器的形式使用。不幸的是,物理學(xué)界和政府都沒有聽取他們的意見。”他強(qiáng)調(diào),AI這項技術(shù)與核武器、航空技術(shù)一樣強(qiáng)大,各個國家應(yīng)該努力盡快開展這種AI安全方面的合作。
羅素認(rèn)為,保證發(fā)揮AI的潛在好處需要全面變革,不能僅僅靠監(jiān)管和確立嚴(yán)格的規(guī)則及安全標(biāo)準(zhǔn),還需要整個AI領(lǐng)域的文化轉(zhuǎn)變。
他給出了建議:首先,要建立人類能夠理解的AI系統(tǒng)?!拔覀儾涣私獯笮驼Z言模型以及它們?nèi)绾喂ぷ鳌N覀冃枰羞@種理解,以便對安全有信心。人類構(gòu)建AI系統(tǒng)的技術(shù),不應(yīng)該依賴大量的數(shù)據(jù)訓(xùn)練和內(nèi)部結(jié)構(gòu)未知的黑箱?!?/p>
此外,要阻止不安全的人工智能系統(tǒng)被部署,特別是被惡意行為者使用,“需要改變整個數(shù)字生態(tài)系統(tǒng),從計算機(jī)的運(yùn)行模式入手,即計算機(jī)不會運(yùn)行它所認(rèn)為的不安全的軟件?!?/p>
羅素在討論最后總結(jié)道,人工智能是一門科學(xué),因此在使用它之前,需要了解它的內(nèi)部結(jié)構(gòu)和工作原理。“就像我們制造飛機(jī)一樣,我們可以根據(jù)飛機(jī)的物理形狀和發(fā)動機(jī)等來說明它們是如何保持在空中的?!彼硎荆澳壳?,特別是在大型語言模型領(lǐng)域,人工智能還沒有達(dá)到這樣的水平。我們不知道它們是如何產(chǎn)生這些特性的。事實上,我們甚至不知道它們具有什么特性,所以不能將這些現(xiàn)象與它們內(nèi)部的工作原理聯(lián)系起來。”因此,人工智能是一門需要繼續(xù)深入探索的科學(xué)。
(本文來自澎湃新聞,更多原創(chuàng)資訊請下載“澎湃新聞”APP)
關(guān)鍵詞: