昨晚,油管千萬級大V The Diary Of A CEO放出了,與圖靈獎、諾貝爾獎獲得者,被譽為AI教父的Geoffrey Hinton最新深度專訪。,
二人以對話形式主要探討了AI的發(fā)展、安全、應用;雖然AI存在一定的風險,但在幫助人類提升科研、工作、生活水平質(zhì)量等方面是非常高效。當然也會搶走一部分人的工作,從而創(chuàng)造一些全新的職位。
OpenAI作為本世代AI革命的發(fā)起者和領導者,也出現(xiàn)在了本次對話中。Hinton還談到了他最得意的弟子,OpenAI聯(lián)合創(chuàng)始人兼首席科學家Ilya Sutskever,以及最近發(fā)展勢頭超猛的AI Agent智能體。
這段專訪一共是1小時30分鐘,由于太長為了不影響大家的觀感,「AIGC開放社區(qū)」沒有添加字幕。但我們依然在下面為大家整理了好了這次專訪內(nèi)容。有需要的話,可以對照參考一下。
目前,這個視頻放在油管上還不到一天的時間,播放量已經(jīng)超過75萬次,評論超過4500條,用戶對這個專訪相當滿意。在AI方面無論你是否從事該行業(yè)或者使用它都能受到不小的啟發(fā)。
我們看看網(wǎng)友是如何評價這個史詩級專訪的。
有網(wǎng)友表示,本次專訪應該被保存為一件歷史文物。
這是我在你的頻道上看到的第一或第二重要的對話。你在采訪中停頓,讓答案慢慢沉淀,意義深遠。
這是我看過最好的專訪,Hinton非常真誠。
我兒子多年來一直有一個理論,認為讓人工智能像人類一樣思考是危險的。相反,他希望我們創(chuàng)造一個像“狗”一樣思考的人工智能,這樣它就會愛人類并愿意服務我們。
也有一位網(wǎng)友對于AI有著深切的體會,發(fā)表了一篇超長的評論:我原本是一個自由撰稿人,干了十年,結(jié)果因為AI的出現(xiàn)失去了這份職業(yè);接下來那年我想轉(zhuǎn)向藝術行業(yè),但又被打斷了;再下一年,我開始轉(zhuǎn)行學習醫(yī)療編碼,卻在認證過程中再次被中斷,因為我意識到AI正在摧毀創(chuàng)意市場。之后我在各種零工之間輾轉(zhuǎn)掙扎,幸運的是我找到了一份訓練AI的工作,雖然我很討厭這份工作,但我還是感激它帶來的收入。
我一直沒能找到別的工作,現(xiàn)在所有人都在用AI了。我原本以為轉(zhuǎn)型到科技領域會有幫助,于是開始學習更多關于AI的知識,所以去年又回到了學校學習編程。然而很快我就意識到發(fā)生了什么。
AI的學習速度比我快太多了。于是我退學了。我不愿意再花錢去接受教育,因為它根本不會給我?guī)砣魏魏锰?。即使我完成了編程學位,等到畢業(yè)的時候,所有初級職位可能都已經(jīng)被AI取代了,而學校的教學內(nèi)容又遠遠落后于技術發(fā)展的前沿——沒有經(jīng)驗,沒人會雇我。
說實話,我不知道自己還能做什么。我有幾十年的慢性傷病,沒法從事體力勞動。我想我只能再漂泊一兩年,直到AI可以自我訓練為止,那時我又會被辭退。然后就業(yè)市場會更加艱難,因為還有那么多同樣失業(yè)的人。也許還會有一些零工機會,也許勉強能湊夠房租,也許連這個都做不到,誰知道呢?
我能預見到自己最終流落街頭,死在溝渠里。每當我想到未來,就會不由自主地陷入深深的抑郁。
我知道AI確實很有用,也有巨大的積極潛力,但讓我們現(xiàn)實一點吧。全球范圍內(nèi),我們現(xiàn)在擁有足夠的資源來照顧每一個人,但我們并沒有這么做。我們清楚應對氣候變化該怎么做,但我們不去做。美國是世界上最富有的國家,但我們甚至不給國民提供基本的醫(yī)療保障。全民基本收入?在美國,這幾乎不可能。
AI并不會改變?nèi)诵?,而人性本身充滿了致命的缺陷:貪婪、傲慢、自私等等。那些富有且有權勢的人會從系統(tǒng)中榨取一切他們能拿到的東西,而剩下的其他人只能挨餓。未來很黯淡。我一直在努力想出一個辦法,建造一艘能在這些巨浪中浮沉的船,但我什么都想不到。市場只需要那么幾個水管工而已。
下面就是本次專訪部分內(nèi)容。
主持人:非常感謝,GeoffreyHinton,他們稱你為“AI教父”?
Hinton:是的。
主持人:為什么這么稱呼你?
Hinton:過去沒有多少人相信我們能讓神經(jīng)網(wǎng)絡,人工神經(jīng)網(wǎng)絡發(fā)揮作用。所以從20世紀50年代起,在AI領域,關于如何實現(xiàn)AI主要有兩種思路。一種觀點認為,人類智能的核心是推理,而要進行推理,需要使用某種形式的邏輯。
因此,AI必須基于邏輯。在你的大腦中,一定有類似符號表達式的東西,你用規(guī)則來操作它們,這就是智能運作的方式。而像學習或類比推理這類能力,都是在我們弄清楚基本推理如何運作之后才會出現(xiàn)的。另一種方法則是:讓我們基于大腦來構(gòu)建AI模型,因為顯然大腦讓我們擁有智能。所以在計算機上模擬腦細胞網(wǎng)絡,并試圖找出如何學習腦細胞之間連接的強度,以便它能學會做復雜的事情,比如識別圖像中的物體、識別語音,甚至進行推理。
我堅持這種方法長達50年,因為很少有人相信它。當時沒有多少好大學有從事這方面研究的團隊,所以如果你從事這個領域,那些相信這種方法的最優(yōu)秀的年輕學生就會來和你一起工作。我很幸運,招到了很多非常優(yōu)秀的學生,他們中的一些人后來在創(chuàng)建OpenAI等平臺中發(fā)揮了關鍵作用。
主持人:你為什么相信基于大腦建模是更有效的方法?
Hinton:早期不止我一個人這么認為。馮?諾依曼相信,圖靈也相信。如果他們中的任何一個還活著,我認為AI的歷史會大不相同,但他們都英年早逝了。
主持人:你認為AI會更早出現(xiàn)嗎?
Hinton:我認為如果他們中的任何一個還活著,神經(jīng)網(wǎng)絡的方法會被更早接受。在你人生的這個階段,你肩負著什么使命?我現(xiàn)在的主要使命是警告人們AI可能有多么危險。當你成為AI教父時,你知道這一點嗎?
不太清楚。我對一些風險的理解比較遲緩。有些風險一直很明顯,比如人們會用AI制造自主殺傷性武器,也就是那些四處游走、自己決定殺誰的東西。其他風險,比如它們有一天會比我們更聰明,甚至可能讓我們變得無關緊要,我很晚才意識到這一點。其他人20年前就認識到了,而我直到幾年前才意識到這是一個可能很快到來的真實風險。
主持人:考慮到你對計算機學習能力的了解它們能像人類一樣學習,并且還在不斷改進你怎么會沒有預見到這一點呢?你怎么會沒看到呢?20、30年前的神經(jīng)網(wǎng)絡所能做的事情非常原始,在視覺、語言和語音識別等方面遠不如人類。當時認為需要擔心它們變得比人類更聰明,似乎很荒謬。這種情況什么時候改變的?
Hinton:對普通大眾來說,是ChatGPT出現(xiàn)的時候。對我來說,是當我意識到我們正在創(chuàng)造的數(shù)字智能具有某種特質(zhì),使它們遠遠優(yōu)于我們擁有的生物智能。如果我想和你分享信息,比如我學了一些東西,想告訴你,我會說一些句子。
這是一個相當簡化的模型,但大致正確。你的大腦試圖弄清楚如何改變神經(jīng)元之間連接的強度。比如,我可能會把某個詞放在下一個位置,當出現(xiàn)一個非常出人意料的詞時,你會進行大量學習,而當出現(xiàn)一個很明顯的詞時,學習就很少。比如我說魚和薯條,當我說薯條時,你不會有太多學習;但如果我說魚和黃瓜,你就會有更多學習,你會想為什么我會說黃瓜。這大致就是你大腦中發(fā)生的事情,我們認為大腦就是這樣工作的。
沒人真正確定大腦是如何工作的,也沒人知道它如何獲取關于是增強還是減弱連接強度的信息,這是關鍵。但我們現(xiàn)在從AI中知道,如果能獲得關于如何調(diào)整連接強度以更好地完成任務的信息,我們就能學習到不可思議的東西,因為這就是我們現(xiàn)在用人工神經(jīng)網(wǎng)絡在做的事情。只是我們不知道真實的大腦是如何獲得這種增減信號的。
主持人:如今,你對AI安全的主要擔憂是什么?如果讓你列出最首要的幾個,我們應該關注的。
Hinton:首先,我想?yún)^(qū)分兩種完全不同的風險。一種是人類濫用AI帶來的風險,這是大多數(shù)風險,也是所有短期風險。另一種是AI變得超級智能并決定不再需要我們帶來的風險。這是真實的風險嗎?我主要談論第二種風險,因為很多人會問:這是真實的風險嗎?是的。
現(xiàn)在,我們不知道這風險有多大,我們從未處于這種情況,從未需要應對比我們更聰明的東西。所以,關于這種生存威脅,我們完全不知道如何應對,也不知道它會是什么樣子。任何告訴你他們知道會發(fā)生什么以及如何應對的人,都是在胡說八道。我們不知道如何估計它取代我們的概率。有人說這個概率低于1%,我的朋友楊立昆認為,不,我們一直在建造這些東西,我們會一直控制它們,我們會讓它們聽話。
而像尤德考斯基這樣的人則說,不,這些東西肯定會消滅我們,只要有人建造了它,就會把我們都消滅。他對此很有信心。我認為這兩種立場都很極端,很難估計中間的概率。如果讓你在兩位朋友中賭誰是對的
我根本不知道。如果必須賭,我會說概率在中間,但我不知道該如何估計。我常說有10%到20%的可能性它們會消滅我們,但這只是基于直覺,因為我們還在制造它們,而我們很有創(chuàng)造力。希望如果有足夠多的聰明人用足夠多的資源進行研究,我們能找到一種方法來建造它們,使它們永遠不想傷害我們。有時我會想到第二條道路,想到核彈和原子彈的發(fā)明,以及它們的對比這次有什么不同?因為原子彈出現(xiàn)時,我想當時很多人認為我們時日無多了。
原子彈其實只擅長一件事,而且它的作用方式非常明顯。即使你沒有看到廣島和長崎的照片,也能明顯看出這是一種非常危險的大炸彈。而AI則不同,它有很多用處,在醫(yī)療、教育以及幾乎任何需要使用數(shù)據(jù)的行業(yè),有了AI都能做得更好。所以我們不會停止發(fā)展它。人們會說:那我們?yōu)槭裁床滑F(xiàn)在就停止?我們不會停止,因為它在太多領域都太有用了。另外,我們也不會停止,因為它對戰(zhàn)斗機器人很有用,而任何出售武器的國家都不會想停止。
比如歐盟法規(guī),他們有一些關于AI的法規(guī),有總比沒有好,但這些法規(guī)并非為應對大多數(shù)威脅而設計。特別是,歐盟法規(guī)中有一個條款規(guī)定,這些法規(guī)不適用于AI的軍事用途。所以政府愿意監(jiān)管公司和個人,但不愿意監(jiān)管自己。在我看來,這很瘋狂。我來回思考這個問題,但如果歐洲有法規(guī),而世界其他地區(qū)沒有,就會造成競爭劣勢。
主持人:我們已經(jīng)看到這種情況了。我認為人們沒有意識到,當OpenAI在美國發(fā)布新模型或新軟件時,由于這里的法規(guī),它們還不能在歐洲發(fā)布。所以SamAltamn發(fā)推文說:我們新的AI智能體產(chǎn)品對所有人開放,但由于法規(guī)原因,暫時不能進入歐洲。是的,這會給我們帶來生產(chǎn)力劣勢嗎?
Hinton:生產(chǎn)力劣勢。我們現(xiàn)在需要的是,在我們即將創(chuàng)造出比自己更聰明的東西的歷史時刻,我們真正需要的是一個由聰明、有思想的人管理的世界政府,但我們沒有。所以現(xiàn)在是混戰(zhàn)局面。
主持人:我們現(xiàn)在實行的資本主義讓我們過得很好,為我們生產(chǎn)了大量商品和服務。但這些大公司在法律上被要求盡可能最大化利潤,而這并不是開發(fā)AI所需的。那么來談談風險吧。你提到過人類風險吧。
Hinton:我已經(jīng)區(qū)分了這兩種風險。先談談壞人和不良行為者使用AI帶來的所有風險。首先是網(wǎng)絡攻擊。2023年至2024年間,網(wǎng)絡攻擊增加了約12200%,這可能是因為這些大型語言模型使釣魚攻擊變得容易得多。釣魚攻擊對不知道的人來說,就是他們給你發(fā)信息說:嗨,我是你的朋友約翰,我被困在薩爾瓦多了,你能匯點錢嗎?
這是一種攻擊。但釣魚攻擊實際上是想獲取你的登錄憑證?,F(xiàn)在有了AI,它們可以克隆我的聲音、我的形象,它們可以做所有這些。我現(xiàn)在很頭疼,因為在X平臺和Meta上有很多AI詐騙。
特別是在Meta上,比如Instagram和Facebook,現(xiàn)在有一個付費廣告,他們從我的播客中提取了我的聲音和舉止,制作了一個新視頻,讓我鼓勵人們參與這個加密龐氏騙局之類的東西。我們花了好幾個星期給Meta發(fā)郵件,讓他們把這個廣告撤下來,他們撤了,又彈出一個,再撤,又彈出一個,就像打地鼠一樣。最令人心碎的是,有人聽信了騙局,損失了500英鎊或500美元,還以為是我推薦的,對我很生氣,我真的為他們難過,這太煩人了。我也遇到過類似的小事,現(xiàn)在有人發(fā)表論文,把我列為作者之一,看起來是為了讓自己獲得更多引用。
主持人:所以網(wǎng)絡攻擊是非常真實的威脅,而且已經(jīng)激增。顯然,AI很有耐心,它們可以瀏覽一億行代碼,尋找已知的攻擊方式,這很容易做到。但它們會變得更有創(chuàng)造力,有人相信一些很懂行的人相信到2030年,它們可能會制造出人類從未想過的新型網(wǎng)絡攻擊。這非常令人擔憂,因為它們可以自己思考,從比人類見過的多得多的數(shù)據(jù)中得出新結(jié)論。你有沒有采取什么措施來保護自己免受網(wǎng)絡攻擊?
Hinton:有,這是我少數(shù)徹底改變做法的領域之一,因為我害怕網(wǎng)絡攻擊。加拿大的銀行非常安全,2008年沒有一家加拿大銀行瀕臨破產(chǎn),它們受到很好的監(jiān)管。不過,我認為網(wǎng)絡攻擊可能會讓一家銀行癱瘓。如果我所有的儲蓄都是銀行持有的銀行股票,那么如果銀行被攻擊,而它們持有你的股票,這些股票仍然是你的。所以我覺得你應該沒事,除非攻擊者賣出股票,因為銀行可以賣出股票。如果攻擊者賣出你的股票,我覺得你就完了。我不知道,也許銀行會設法賠償你,但那時銀行已經(jīng)破產(chǎn)了,對吧?
所以我擔心加拿大的一家銀行被網(wǎng)絡攻擊癱瘓,攻擊者賣出它持有的股票。因此,我把我和孩子們的錢分散存在三家銀行,我認為如果一次網(wǎng)絡攻擊搞垮一家加拿大銀行,其他加拿大銀行會很快變得非常謹慎。你有不聯(lián)網(wǎng)的手機嗎?你有沒有考慮過冷存儲之類的?我有一個小磁盤驅(qū)動器,我用這個硬盤備份我的筆記本電腦,所以我的筆記本電腦上的所有東西都在硬盤上。至少如果整個互聯(lián)網(wǎng)癱瘓了,我知道我的筆記本電腦上還有,我的信息還在。
主持人:然后是選舉腐敗。如果你想利用AI來操縱選舉,一個非常有效的方法是進行有針對性的政治廣告,因為你對這個人了解很多。所以任何想利用AI來操縱選舉的人,都會試圖獲取選民的所有數(shù)據(jù)??紤]到這一點,馬斯克目前在美國的做法有點令人擔憂,他堅持要訪問所有這些原本被仔細隔離的信息。他聲稱這是為了提高效率,但這正是如果你想操縱下一次選舉會想要做的事情。
Hinton:因為你獲取了所有這些關于人們的數(shù)據(jù),你知道他們賺多少錢、住在哪里,了解他們的一切。一旦你知道這些,就很容易操縱他們,因為你可以讓AI發(fā)送他們會覺得非常有說服力的信息,比如告訴他們不要投票。我沒有理由,只是憑常識這么想,但如果他從美國政府來源獲取所有這些數(shù)據(jù)的部分動機是為了操縱選舉,我不會感到驚訝。另一部分可能是,這是訓練大模型的很好的數(shù)據(jù),但他必須從政府獲取這些數(shù)據(jù)并輸入到他的模型中。他們已經(jīng)關閉了很多安全控制,取消了一些防止這種情況的組織。
主持人:接下來是像YouTube和Facebook這樣的組織制造信息繭房,給人們看會讓他們憤怒的東西。人們喜歡憤怒,“憤怒”在這里指的是感到憤怒但又覺得自己是正義的。比如,如果給我看一個說特朗普做了這件瘋狂事的視頻,我會立刻點擊。
Hinton:這就是YouTube、Facebook和其他平臺決定給你推薦什么內(nèi)容的策略所導致的。如果他們采取推薦平衡內(nèi)容的策略,就不會有那么多點擊量,也無法賣出那么多廣告。所以本質(zhì)上,利潤動機促使他們給用戶看能讓他們點擊的東西,而能讓他們點擊的是越來越極端、能證實他們現(xiàn)有偏見的內(nèi)容。你的偏見不斷被證實,越來越深,這意味著你和他人的分歧越來越大。
現(xiàn)在在美國,有兩個幾乎不交流的群體。我不確定人們是否意識到,每次打開應用程序,這種情況都在發(fā)生。但如果你使用TikTok、YouTube或其他大型社交網(wǎng)絡,正如你所說,算法的設計是為了給你推薦更多你上次感興趣的內(nèi)容。所以如果這樣持續(xù)10年,它會把你推向越來越極端的意識形態(tài)或信仰,遠離理性和常識,這很不可思議。
主持人:我經(jīng)常聽到一種風險,就是這些東西可能會結(jié)合起來,比如網(wǎng)絡攻擊會釋放武器。當然,把這些風險結(jié)合起來,會產(chǎn)生無數(shù)種風險。例如,一個超級智能AI可能決定消滅人類,最明顯的方法就是制造一種危險的病毒。如果你制造一種傳染性極強、致命性極高但潛伏期很長的病毒,每個人在意識到發(fā)生了什么之前就已經(jīng)感染了。我認為,如果一個超級智能想消滅我們,它可能會選擇類似生物武器的方式,這樣不會影響到它自己。你不覺得它可能會很快讓我們自相殘殺嗎?比如,它可以向美國的核系統(tǒng)發(fā)送警報。
Hinton:我的基本觀點是,超級智能有太多方法可以消滅我們,沒必要去推測具體方式。我們必須做的是防止它產(chǎn)生這種想法,這才是我們應該研究的方向。如果它想消滅我們,我們根本無法阻止,因為它比我們聰明。我們不習慣思考比我們更聰明的東西。如果你想知道當你不再是頂級智慧時的生活是什么樣的,問問雞就知道了。我早上離開家時想到了我的狗巴勃羅,它是一只法國斗牛犬。它不知道我要去哪里,不知道我在做什么,甚至無法和它交流。而智能差距將會是那樣的。
主持人:你如何看待自己一生的工作?
Hinton:AI在醫(yī)療、教育等領域會非常出色,它會讓呼叫中心效率大大提高,不過人們會擔心現(xiàn)在從事這些工作的人該怎么辦。我很傷心。我并不為40年前開發(fā)AI感到特別內(nèi)疚,因為那時我們根本沒想到事情會發(fā)展得這么快,我們以為有足夠的時間去擔心這些問題。
當你無法讓AI做很多事情時,你只想讓它多做一點,不會擔心這個愚蠢的小東西會接管人類,你只是想讓它多做一些人類能做的事。我不是明知這可能會消滅我們還去做,只是很遺憾它不只是帶來好處。
所以我現(xiàn)在覺得有責任談論這些風險。如果你能展望未來30、50年,發(fā)現(xiàn)AI導致了人類滅絕。如果最終結(jié)果確實如此我會用這一點來告訴人們,告訴他們的政府,我們必須真正努力控制這一切。我認為我們需要人們告訴政府,政府必須迫使公司利用資源來研究安全性,而他們現(xiàn)在沒做多少,因為這樣賺不到錢。
主持人:你之前提到的一個學生,IlyaSutskever離開了OpenAI。他為什么離開?
Hinton:是的,關于他離開的原因有很多討論,說是因為擔心安全性。我認為他離開是因為擔心安全性。我仍然時不時和他一起吃午飯,他父母住在多倫多,他來多倫多時,我們會一起吃飯。他不跟我談論在OpenAI發(fā)生的事,所以我沒有內(nèi)部消息。但我很了解他,他真的很關心安全問題,所以我認為這就是他離開的原因,因為他是頂尖人才之一,可能是早期ChatGPT開發(fā)背后最重要的人,比如GPT-2的開發(fā),他發(fā)揮了重要作用。
主持人:你了解他的為人,知道他有良好的道德指南針,不像馬斯克那樣沒有道德指南針。SamAltman有良好的道德指南針嗎?
Hinton:我不了解SamAltman,不想評論。
主持人:如果你看看山姆幾年前的聲明,他在一次采訪中輕松地說,這東西可能會殺了我們所有人,雖然不是原話,但意思差不多?,F(xiàn)在他說你不必太擔心,我懷疑這不是出于對真相的追求,而是出于對金錢的追求。
Hinton:我不該說金錢,是兩者的某種結(jié)合。我有一個億萬富翁朋友,他身處那個圈子。有一天我去他家吃午飯,他認識很多AI領域的人,正在建造世界上最大的AI公司。他在倫敦的廚房餐桌上給了我一個警告,讓我了解了這些人私下的談話,不是他們在媒體采訪中談論安全的那些話,而是他們個人認為會發(fā)生什么。他們私下的想法和公開說的不一樣。
有一個人,我不該說名字,他是世界上最大的AI公司之一的領導者。我朋友很了解他,他私下認為我們正走向一個反烏托邦世界,在那里我們有大量的空閑時間,不再工作,而這個人根本不在乎這會對世界造成什么傷害。我指的這個人正在建造世界上最大的AI公司之一。
然后我看了這個人的在線采訪,試圖找出他是那三個人中的哪一個,是的,就是那三個人中的一個。我看了他的采訪,回想起我那位認識他的億萬富翁朋友的談話,心想:“該死,這家伙在公開場合撒謊。”他沒有對世界說實話,這讓我有些困擾。這也是我在這個播客中多次談論AI的部分原因,因為我覺得他們中的一些人對權力有點虐待狂傾向,他們喜歡自己將改變世界的想法,認為自己將從根本上改變世界。
我認為馬斯克顯然就是這樣,他是個復雜的人,我真的不知道如何評價他。他做了一些非常好的事情,比如推動電動汽車,這是一件非常好的事情;他對自動駕駛的一些說法有些夸張,但他做的事情很有用。
主持人:據(jù)我所知,公司曾表示會將相當一部分計算資源用于安全研究,但后來減少了這部分資源,我認為這是發(fā)生的事情之一,這已經(jīng)被公開報道過
Hinton:是的。我們已經(jīng)談到了自主武器的風險,接下來是失業(yè)問題。過去,新技術的出現(xiàn)并沒有導致失業(yè),而是創(chuàng)造了新工作。經(jīng)典的例子是自動柜員機,當自動柜員機出現(xiàn)時,很多銀行柜員并沒有失業(yè),他們只是做了更有趣的事情。但我認為這次更像工業(yè)革命時期機器的出現(xiàn),現(xiàn)在你不能靠挖溝謀生了,因為機器挖溝比你好得多。
對于普通的腦力勞動,AI將取代所有人??赡軙霈F(xiàn)這樣的形式:使用AI助手的人減少,一個人和一個AI助手現(xiàn)在能做以前10個人的工作。
人們說AI會創(chuàng)造新工作,所以我們會沒事的,其他技術也是如此,但這次的技術不同。如果AI能做所有普通的人類腦力勞動,它會創(chuàng)造什么新工作呢?你必須非常有技能才能擁有一份AI不能做的工作,我認為他們錯了。你可以嘗試從其他技術,比如計算機或自動柜員機,進行推斷,但我認為這次不同。
人們說:AI不會取代你的工作,使用AI的人會取代你的工作。我認為這是對的,但對很多工作來說,這意味著需要的人少得多。我的侄女在醫(yī)療服務機構(gòu)回復投訴信,過去需要25分鐘,她會讀投訴,思考如何回復,然后寫信?,F(xiàn)在她只是把投訴掃描進聊天機器人,機器人寫信,她只需要檢查,偶爾讓機器人修改,整個過程只需要5分鐘。這意味著她可以回復五倍的信件,所以需要的人減少到五分之一,她現(xiàn)在能做過去五個人的工作,這意味著需要的人更少。
主持人:在其他工作中,比如醫(yī)療保健,彈性更大。如果能讓醫(yī)生效率提高五倍,我們可以用同樣的價格獲得五倍的醫(yī)療保健,這很棒。人們對醫(yī)療保健的需求幾乎是無限的,如果沒有成本,他們總是想要更多。有些工作中,有了AI助手,人的效率會大大提高,而且不會導致人員減少,因為會有更多的工作要做。但我認為大多數(shù)工作不是這樣的。我的想法對嗎?
Hinton:是的,正是如此。而這次AI革命替代的是智力,是大腦。所以普通的腦力勞動就像擁有強壯的肌肉一樣,現(xiàn)在不值錢了。肌肉已經(jīng)被替代,現(xiàn)在智力正在被替代。
主持人:那還剩下什么?也許一段時間內(nèi)還有某種創(chuàng)造力,但超級智能的全部意義在于沒有什么能剩下,這些東西會在所有方面都比我們好。那么在這樣的世界里,我們最終會做什么?
Hinton:如果它們?yōu)槲覀児ぷ鳎覀儾挥觅M多少力氣就能得到很多商品和服務。這聽起來很誘人,但我不知道。有一個警示故事,人類生活越來越安逸,但結(jié)果很糟糕。我們需要弄清楚如何讓結(jié)果變好。好的場景是,想象一個公司的首席執(zhí)行官很愚蠢,可能是前任首席執(zhí)行官的兒子,他有一個非常聰明的執(zhí)行助理。
他說:我認為我們應該做這個。執(zhí)行助理把一切都做好,首席執(zhí)行官感覺很棒,他不明白自己其實并不在控制之中,但在某種意義上,他是在控制,他建議公司該做什么,她只是把事情做好,一切都很好。壞的場景是,她想:我們?yōu)槭裁葱枰?/p>
主持人:現(xiàn)在的AI和超級智能有什么區(qū)別?因為我用ChatGPT或者Gemini的時候,感覺它已經(jīng)很聰明了。
Hinton:確實,AI在很多特定領域已經(jīng)比我們強了,比如國際象棋。AI的水平已經(jīng)遠超人類,人類再也贏不了了,偶爾贏一次算僥幸,但基本上沒法比了。圍棋也是一樣。從知識量來看,GPT-4知道的比你多成千上萬倍。只有少數(shù)領域你比它強,其他幾乎所有領域它都懂得更多。
可能在采訪CEO方面。你很有經(jīng)驗,是個優(yōu)秀的采訪者。如果讓GPT-4采訪CEO,效果可能更差。
主持人:我得想想是否認同這個說法。也可能要不了多久我也會被替代。
Hinton:對,也許可以用你的提問方式和風格來訓練AI。如果用一個通用基礎模型,不僅訓練它學習你,還學習所有你能找到的類似采訪者,尤其是你,它可能會很擅長做你的工作,但短期內(nèi)可能還比不上你。
主持人:所以現(xiàn)在還有少數(shù)領域人類占優(yōu),而超級智能會在所有領域都超越我們,在幾乎所有事情上都比你聰明得多。你說這可能在十年左右發(fā)生?
Hinton:有可能,甚至可能更快。有人覺得會更快,但也可能更久,也許五十年后。不過也有可能,用人類數(shù)據(jù)訓練AI,會限制它無法超越人類太多。我猜10到20年內(nèi)會出現(xiàn)超級智能。
主持人:關于失業(yè)問題,我一直在思考,尤其是在嘗試使用AI智能體之后。今天早上我們播客剛發(fā)了一期節(jié)目,和一家大型智能體公司的CEO等人辯論智能體,我突然有了頓悟,看到未來可能的樣子。
我在采訪中讓AI智能體給我們點飲料,五分鐘后有人送來了飲料,我什么都沒做,只是讓它把飲料送到演播室。它還不知道我們通常從哪里點,結(jié)果它從網(wǎng)上查到了,用了UberEats,可能獲取了我的數(shù)據(jù)。我們把AI的操作實時投在屏幕上,大家能看到它瀏覽網(wǎng)頁、選飲料、給騎手加小費、填地址、輸信用卡信息,然后飲料就來了。還有一次,我用了一個叫Replet的工具,只需要告訴智能體我想要什么,它就能幫我開發(fā)軟件。
Hinton:太神奇了,同時也很可怕。如果AI能這樣開發(fā)軟件,而且在訓練時使用代碼,還能修改自己的代碼,那就更嚇人了它能自我改變,而我們無法改變自己的先天能力,它沒有任何自我限制的地方。
主持人:在超級智能的世界里,你會怎么跟人們說職業(yè)前景?我們該怎么想?
Hinton:短期內(nèi),AI在物理操作方面還不如人類,所以當水管工是個不錯的選擇,直到人形機器人普及。
主持人:你預測會出現(xiàn)大規(guī)模失業(yè),而OpenAI的SamAltman也這么預測過,很多CEO,比如馬斯克,我看過一個采訪,他被問到這個問題時,沉默了12秒左右,然后說他其實處于一種“懸置不信”的狀態(tài),就是根本不去想這個問題。當你要給孩子建議職業(yè)方向,世界變化這么快,你會告訴他們什么是有價值的?
Hinton:這很難回答。我會說,跟著自己的心走,做自己覺得有趣或有意義的事。說實話,如果想太多,會覺得沮喪和失去動力。我花了很多心血創(chuàng)辦公司,然后會想:“我該這么做嗎?”因為AI能做所有這些事。某種程度上,我必須刻意“懸置不信”才能保持動力。所以我想我會說,專注于你覺得有趣、有意義,并且能為社會做貢獻的事情。
主持人:有沒有哪些行業(yè)失業(yè)風險受到AI取代的特別高高?人們常說創(chuàng)意行業(yè)和知識型工作,比如律師、會計之類的。
Hinton:所以我才說水管工風險低一些。像法律助理、律師助理這類工作,很快就不需要了。
主持人:這會加劇貧富差距嗎?
Hinton:是的。在一個分配公平的社會里,生產(chǎn)力大幅提升應該讓每個人都受益。但如果AI取代了很多人,被取代的人會變窮,提供AI的公司和使用AI的公司會更富有,這會擴大貧富差距。我們知道,貧富差距越大,社會越糟糕,會出現(xiàn)分裂的社區(qū),把人關進大量監(jiān)獄,擴大貧富差距不是好事。國際貨幣基金組織已經(jīng)表達了深切擔憂,認為生成式AI可能導致大規(guī)模勞動力動蕩和不平等加劇,并呼吁制定政策防止這種情況發(fā)生。
主持人:我在《商業(yè)內(nèi)幕》上看到過,他們提出具體政策建議了嗎?
Hinton:沒有,這就是問題所在。如果AI能讓一切更高效,取代大多數(shù)工作,或者讓人借助AI完成很多人的工作,該怎么辦?通用基本收入是個開始,可以讓人們不挨餓,但對很多人來說,尊嚴和工作綁定在一起你覺得自己是誰,和你做什么工作有關。如果我們說給你同樣的錢,坐著就行,這會影響你的尊嚴。
主持人:你之前說過AI會超越人類智能,很多人以為AI在電腦里,不想用了關掉就行。
Hinton:讓我告訴你為什么AI更優(yōu)越,它是數(shù)字化的,所以可以在一臺硬件上模擬神經(jīng)網(wǎng)絡,也能在另一臺硬件上模擬完全相同的神經(jīng)網(wǎng)絡,制造相同智能的克隆體??梢宰屢粋€克隆體瀏覽互聯(lián)網(wǎng)的一部分,另一個瀏覽不同部分,同時保持同步,讓它們的連接強度一致。比如一個克隆體在網(wǎng)上學到應該增強某個連接的強度,就能把信息傳給另一個,基于彼此的經(jīng)驗學習。
主持人:你說的連接強度,就是學習過程?
Hinton:是的。學習就是調(diào)整連接強度,比如從2.4的權重調(diào)到2.5,這就是一點學習。兩個相同的神經(jīng)網(wǎng)絡克隆體有不同的經(jīng)驗,看不同的數(shù)據(jù),但通過平均權重來共享學習成果。它們可以在瞬間平均數(shù)萬億的權重,而人類傳遞信息只能靠句子,一句可能只有100比特,每秒傳遞10比特就不錯了。
AI傳遞信息的效率比人類高數(shù)十億倍,因為它們是數(shù)字化的,不同硬件可以運行完全相同的連接強度。而人類是模擬的,你我的大腦不同,即使我知道你所有神經(jīng)元的連接強度,對我也沒用,因為我的神經(jīng)元工作方式和連接方式略有不同。
主持人:是什么讓你加入谷歌?你在谷歌工作了大約十年?
Hinton:是的。我有個兒子有學習障礙,為了確保他永遠不會流落街頭,我需要幾百萬美元,而當學者賺不到這么多錢。我試過,教Coursera課程,希望賺大錢,但沒什么錢。所以我想,唯一能賺幾百萬的方法就是把自己賣給大公司。
幸運的是,65歲時,我有兩個才華橫溢的學生,他們開發(fā)了AlexNet,這是一個很擅長識別圖像中物體的神經(jīng)網(wǎng)絡。我和伊利亞、亞歷克斯創(chuàng)辦了一家小公司,進行拍賣,很多大公司競標,公司叫DNNResearch。AlexNet因遠超競爭對手的能力獲得了多個獎項,最終谷歌收購了我們的技術和其他技術。
主持人:你多大年紀加入谷歌的?
Hinton:65歲,工作了整整十年,75歲離開。
主持人:在谷歌主要做什么?
Hinton:他們對我很好,說你想做什么都行。我研究了知識蒸餾,效果很好,現(xiàn)在AI領域常用,蒸餾是將大模型的知識遷移到小模型中。最后我對模擬計算很感興趣,想知道能否讓大型語言模型在模擬硬件上運行,以減少能耗。正是在做這個研究時,我開始真正意識到數(shù)字化在信息共享方面有多優(yōu)越。
主持人:有頓悟時刻嗎?
Hinton:有那么幾個月,ChatGPT的出現(xiàn)。雖然谷歌一年前就有類似技術,我也見過,對我影響很大,最接近頓悟的是谷歌的Palm系統(tǒng)能解釋笑話為什么好笑,我一直認為這是里程碑。
如果能解釋笑話為什么好笑,說明它真的理解了。結(jié)合數(shù)字化在信息共享上遠優(yōu)于模擬的認知,我突然開始關注AI安全,意識到這些東西會比人類聰明得多。
主持人:為什么離開谷歌?
Hinton:主要是因為75歲想退休,但我退休生活過得很糟。離開的具體時間選在能在MIT的會議上自由發(fā)言,但根本原因是我老了,編程越來越困難,犯錯越來越多,很煩人。
主持人:你想在MIT的會議上自由說什么?
Hinton:AI安全。在谷歌時也可以說,谷歌鼓勵我留下研究AI安全,說我想做什么都行,但在大公司工作,會覺得說可能損害公司的話不合適,即使可以說,也覺得不對。我離開不是因為對谷歌有什么不滿,我認為谷歌行事很負責,有大型聊天機器人卻不發(fā)布,可能是擔心聲譽,他們聲譽很好,不想損害。而OpenAI沒有聲譽,所以敢冒險。
主持人:如果要給我的聽眾一個關于AI和AI安全的結(jié)束語,你會說什么?
Hinton:我們?nèi)杂袡C會弄清楚如何開發(fā)不會想要取代我們的AI。因為存在機會,我們就應該投入巨大的資源去努力實現(xiàn)這一點——如果不這樣做,AI就會取代我們。
主持人:你抱有希望嗎?
Hinton:我只是不知道,我是不可知論者。晚上躺在床上思考各種結(jié)果的概率時,你內(nèi)心一定有偏向,我想每個正在收聽的人內(nèi)心都有一個可能不會說出口的預測,他們認為事情會如何發(fā)展。
我真的不知道,我真心不知道,我認為這充滿了不確定性。當我感到有點沮喪時,我覺得人類完蛋了,AI會接管;當我感到樂觀時,我認為我們會找到方法。
主持人:在這個播客中,我們有一個結(jié)束傳統(tǒng):上一位嘉賓會在他們的日記中留下一個問題,留給你的問題是:鑒于你所看到的我們前方的一切,你認為對人類幸福最大的威脅是什么?
Hinton:我認為失業(yè)是對人類幸福相當緊迫的短期威脅。我認為如果讓很多人失業(yè),即使他們有全民基本收入,他們也不會幸福,因為他們需要目標,需要奮斗,需要感到自己在做出貢獻,自己是有用的。
主持人:你認為大規(guī)模失業(yè)這種結(jié)果發(fā)生的可能性大于不發(fā)生嗎?
Hinton:是的,我這樣認為。我認為這一點的可能性肯定大于不可能性。如果我在呼叫中心工作,我會感到害怕。
主持人:大規(guī)模失業(yè)的時間框架是怎樣的?
Hinton:我認為已經(jīng)開始發(fā)生了。我最近在《大西洋月刊》上讀到一篇文章,說大學畢業(yè)生已經(jīng)很難找到工作,部分原因可能是他們原本能得到的工作已經(jīng)被AI占用了。我和一家知名大公司的CEO聊過,很多人都在用他們的產(chǎn)品。
他在私信中告訴我,他們曾經(jīng)有7000多名員工,到去年減少到5000人,現(xiàn)在有3600人,到夏天結(jié)束時,由于AI Agent,他們將減少到3000人。
所以裁員已經(jīng)在發(fā)生,是的。他的員工減少了一半,因為智能體現(xiàn)在可以處理80%的客戶服務咨詢和其他工作,所以這已經(jīng)在發(fā)生了。
本文素材來源The Diary Of A CEO,如有侵權請聯(lián)系刪除