自從1892年威廉·格拉德斯通首次登臺以來,牛津大學(xué)的羅曼講座吸引了包括溫斯頓·丘吉爾和艾麗斯·默多克女爵在內(nèi)的一系列知名演講者。
然而,像杰弗里·辛頓這樣的演講者發(fā)表的言論極其少見且引人深思。辛頓教授在神經(jīng)網(wǎng)絡(luò)方面的工作塑造了今天的人工智能系統(tǒng)。他是引入反向傳播算法的研究者之一,并且是第一個使用反向傳播來學(xué)習(xí)詞嵌入的人。他對神經(jīng)網(wǎng)絡(luò)研究的其他貢獻(xiàn)包括玻爾茲曼機(jī)、分布式表示、時延神經(jīng)網(wǎng)絡(luò)、專家混合體、變分學(xué)習(xí)和深度學(xué)習(xí)。他在多倫多的研究小組在深度學(xué)習(xí)方面取得了重大突破,這些突破革命性地改變了語音識別和對象分類。
這位人工智能領(lǐng)域的先鋒在本周的演講中直言不諱地提出了一個挑戰(zhàn)性問題:《數(shù)字智能將取代生物智能嗎?》他的回答幾乎是肯定的。不過,辛頓反對西海岸科技界一些人士的看法,他們認(rèn)為堅持人類智能相對于電子智能形式的優(yōu)越性某種程度上是種族主義。他幽默地表示:“我們?nèi)祟悜?yīng)當(dāng)盡可能地保持存在?!?br />
這位加拿大和英國雙國籍的計算機(jī)科學(xué)家憑借他在“深度學(xué)習(xí)”技術(shù)上的開創(chuàng)性工作而聲名鵲起,這些技術(shù)徹底改變了人工智能領(lǐng)域,促成了像 ChatGPT 這樣的生成式聊天機(jī)器人的誕生。在他的整個學(xué)術(shù)生涯及在 Google 的工作中,辛頓一直認(rèn)為人工智能不構(gòu)成對人類的威脅。然而,這位76歲的研究者去年經(jīng)歷了一次重大的覺醒,他決定離開 Google,開始公開討論人工智能潛在的風(fēng)險。辛頓發(fā)現(xiàn),日益強(qiáng)大的人工智能模型能夠像“集體意識”一樣運(yùn)作,它們能夠共享學(xué)習(xí)到的內(nèi)容,這使得它們比人類擁有了壓倒性的優(yōu)勢?!斑@讓我認(rèn)識到,它們或許代表了一種更高級的智能形式,”他在講座前接受采訪時向我透露。
想象一下,僅僅是軟件代碼就能對人類構(gòu)成威脅,聽起來幾乎像是科幻小說的情節(jié)。然而,辛頓指出了兩大風(fēng)險。首先,惡意的人可能會為機(jī)器設(shè)定邪惡的目標(biāo),并將其用于諸如傳播虛假信息、生物恐怖主義、網(wǎng)絡(luò)戰(zhàn)爭以及制造殺人機(jī)器人等危害社會的活動。尤其值得注意的是,開源的人工智能模型,比如 Meta 的 Llama,實際上已經(jīng)將強(qiáng)大的工具交到了不懷好意的人手里?!拔矣X得把這些大模型開源簡直是瘋了,”他評論道。更進(jìn)一步,他還預(yù)測,這些模型可能會以危險的方式“演化”,培養(yǎng)出想要控制一切的意圖?!叭绻乙獙φ岢鼋ㄗh,我會說這些技術(shù)在未來20年內(nèi)有10%的幾率導(dǎo)致人類滅絕。我認(rèn)為這個估計是合理的,”他補(bǔ)充說。
辛頓的看法遭到了雙重質(zhì)疑。首先,有研究人員批評,當(dāng)前的生成式人工智能模型不過是成本高昂的統(tǒng)計花招,認(rèn)為技術(shù)可能導(dǎo)致的終極風(fēng)險純屬“科幻小說”。
知名學(xué)者諾姆·喬姆斯基持有的觀點(diǎn)是,人類天生具備一種“操作系統(tǒng)”,這讓我們有能力理解語言,而這正是機(jī)器所缺失的。然而,辛頓對此提出了反駁,他指出 OpenAI 最新開發(fā)的 GPT-4 模型能夠?qū)W習(xí)語言,并表現(xiàn)出了同理心、邏輯推理以及諷刺能力,這證明了機(jī)器同樣能夠“理解”語言。“我在我的講座中做出了一個堅定的聲明,認(rèn)為這些模型確實具備理解能力,”他明確表示。
另一個質(zhì)疑的聲音來自 Meta 的首席人工智能科學(xué)家 Yann LeCun。LeCun,一個開源模型的堅定擁護(hù)者,認(rèn)為我們目前的人工智能系統(tǒng)連貓都不如,他認(rèn)為它們構(gòu)成人類威脅的想法簡直是“可笑”的?!拔矣X得 Yann 太過天真了。人類的未來就懸于此一線,”辛頓如是回應(yīng)。
辛頓那平和而又嚴(yán)謹(jǐn)?shù)恼f話方式與他傳遞的信息的悲觀基調(diào)形成了強(qiáng)烈的對比。有沒有可能采取措施來增加人類的存續(xù)機(jī)會呢?“我真希望我有答案,”他說?!拔椰F(xiàn)在并不是要推薦某個具體的解決辦法,我只是想要強(qiáng)調(diào)這個問題的存在?!?br />
他對去年英國在布萊切利公園舉行的人工智能安全峰會能夠引發(fā)國際范圍內(nèi)的政策討論感到欣慰。但是,從那以后,他指出英國政府似乎將利潤放在了安全之前?!熬拖駥Υ龤夂蜃兓瘑栴}一樣,”他認(rèn)為,只有當(dāng)科學(xué)界達(dá)成一致意見時,才可能實施重大政策調(diào)整。不過,他也承認(rèn),目前這樣的共識還遠(yuǎn)未形成。借用物理學(xué)家馬克斯·普朗克的話,辛頓沉重地說:“科學(xué)的進(jìn)步,似乎是一次葬禮后才邁進(jìn)一步?!?br />
他表示,看到新一代計算機(jī)科學(xué)家認(rèn)真對待存在性威脅,他感到鼓舞。他提議,應(yīng)該有30%的人工智能研究人員專注于研究安全問題,而當(dāng)前這一比例大約僅為1%。
我們通常對那些認(rèn)為需要更多研究的研究人員持保留態(tài)度。最后,這種情況下以及考慮到所面臨AI的風(fēng)險和不確定性,我們確實需要加快行動來建立新的共識。