![]()
作者林易
編輯重點君
11月6日,OpenAI首席執(zhí)行官Sam Altman在最新訪談中表示,GPT-6不會在今年推出,與上一代相比,GPT-6將實現(xiàn)質(zhì)的飛躍。
Sam Altman說GPT-5是首次能做新的科學研究的一線曙光,GPT-6在科學發(fā)現(xiàn)領(lǐng)域,能夠?qū)崿F(xiàn)類似于早期模型做圖靈測試任務(wù)上的跨越。
對于OpenAI的商業(yè)模式,Sam Altman認為,AI將導(dǎo)致大多數(shù)商品和服務(wù)的利潤率下降,未來OpenAI將以更低的利潤率賺取更多錢。未來ChatGPT將廣泛應(yīng)用訂單抽成的盈利模式,但OpenAI的最終盈利方式不是廣告,而是發(fā)現(xiàn)新的科學或為公眾提供超級智能。
Sam Altman訪談內(nèi)容劃重點:
1、全新生產(chǎn)力工具
Sam Altman認為,提升生產(chǎn)力的核心并非依賴某個單一技巧,而在于成功地授權(quán)。隨著機會增多,他通過招聘和提拔優(yōu)秀人才,并將任務(wù)充分委托給他們來實現(xiàn)效率提升。同時,他強調(diào)團隊必須清晰地理解核心目標并簡化流程,以確保執(zhí)行力。
在協(xié)作工具上,Sam Altman認為未來會出現(xiàn)由AI驅(qū)動、能真正理解意圖并代理處理事務(wù)的全新生產(chǎn)力工具,最終取代現(xiàn)有的辦公軟件套件。他提出了“AI CEO”的設(shè)想:讓AI來運營一個部門在幾年內(nèi)就可能實現(xiàn),并且AI在決策能力上可能會就會變得相當出色。
2、硬件領(lǐng)域的機會
OpenAI向硬件領(lǐng)域的延伸面臨著周期長、資本密集的挑戰(zhàn),硬件團隊文化更像一個研究團隊,這與傳統(tǒng)硬件公司不同,他相信這可能帶來驚人的成功。
GPT-3是智能的曙光,GPT-5展示了進行新科學研究的微弱能力,而GPT-6預(yù)計將實現(xiàn)質(zhì)的飛躍,成為真正能勝任的科學合作者。他建議組織不應(yīng)只將AI視為工具,而應(yīng)徹底重構(gòu)運營模式,以AI為核心進行重組。
3、OpenAI的商業(yè)模式
用戶與ChatGPT建立的深厚信任是其最寶貴的資產(chǎn),任何損害信任的行為(如付費排名)都是災(zāi)難性的。在商業(yè)模式上,Sam Altman傾向于收取公平的交易費用。
4、AI發(fā)展的制約因素
AI發(fā)展的最根本制約不是GPU數(shù)量,而是能源。短期看,需要依賴天然氣等現(xiàn)有方案;長期則必須依靠核聚變和太陽能來實現(xiàn)突破。
AI將催生全新的計算范式和交互界面,超越當前的文本輸入框,需要為AI時代從頭設(shè)計新的計算機硬件和設(shè)備。
5、AI重塑工作和教育
Sam Altman認為,AI會讓學歷貶值,但不會立即讓學歷價值歸零,高效使用AI的技能回報將急劇增加,并廣泛分布于各行業(yè)。
![]()
以下是Sam Altman訪談實錄:
主持人:你好,Sam。很高興和你一起做這次訪談,
Sam Altman:期待這次合作。
1、高效創(chuàng)新的引擎
主持人:現(xiàn)在大約在過去兩個月左右,關(guān)于OpenAI的交易有很多,而且我這里說的還不包括那些環(huán)球出差式的合作。其中很多是本地性的,或者是新的產(chǎn)品功能,比如Pulse。你本來大概就很高產(chǎn),你是如何提升生產(chǎn)力以完成這一切的?
Sam Altman:我并不認為只有一個單一的結(jié)論。除了我認為人們幾乎從來不會像他們認為的那樣合理地分配自己的時間。隨著需求和機會增多,你會找到繼續(xù)提高效率的方法。但是,我們已經(jīng)能夠招聘并提拔優(yōu)秀的人才,我把很多事情委派給他們,讓他們承擔任務(wù)并處理。這是我所知道的唯一可持續(xù)的方式。
我確實盡量確保我們,當我們需要做的事情變得清晰時,比如大量的基礎(chǔ)設(shè)施,現(xiàn)在就需要把它建立起來。我確實會盡力確保我們理解清楚,我們要做的核心事情是什么,并且在某種意義上簡化了,并且非常清楚我們需要做什么。所以那很有幫助。我想另一件發(fā)生的事是,更多的人想要與我們合作,這樣交易能更快達成。
主持人:你現(xiàn)在在硬件或與硬件相關(guān)的事務(wù)上投入更多精力。將工作交給一位優(yōu)秀的硬件人才或雇用這樣的人,與雇用優(yōu)秀的AI人才(這也是你最初開始做的)有何不同?
Sam Altman:你是指像消費類設(shè)備或芯片之類的嗎?
主持人:兩者都是。
Sam Altman:有一點不同的是,周期時間要長得多,資本投入更強烈,前期投入的成本更高。所以我更喜歡花更多時間去了解這些人,然后說,“好吧,你去做這個,我相信它會順利完成。”但是總體上理論上是一樣的。然后你要去尋找那種優(yōu)秀、高效、行動迅速的人,明確目標是什么,然后放手讓他們?nèi)プ觥?/p>
主持人:比如我今年早些時候去拜訪了NVIDIA,他們很棒,在我看來他們非常聰明。但感覺就完全不同于OpenAI。我肯定你也去過NVIDIA,比如人們在表面上看起來更少地使用Twitter,也不那么古怪了。那種無形的不同到底是什么?在硬件領(lǐng)域里,人們必須掌握才能做得好的東西?
Sam Altman:我不知道這是否是一個最終會是好兆頭還是壞兆頭還不清楚的因素,但我們的芯片團隊感覺更像OpenAI,比芯片公司更像是一個研究團隊。我認為這可能會異常成功。
主持人:所以,你們正在用之前雇傭的人員來擴展模型,向硬件延伸。
Sam Altman:存在一定風險,但我們確實在這樣做。
主持人:推特上有個家伙,他叫Roon,他已經(jīng)變得相當有名了。對你來說,是什么讓Roon特別?
Sam Altman:他是一個非常橫向思維的人。你可以沿著一條路徑開始,然后有點像跳到一個完全不同的地方,但繼續(xù)向下走,你知道,保持在同樣的軌跡上,但處在某種非常不同的語境中,這有點不尋常。他顯然很擅長以有趣、有用或其他各種方式表述觀察,這也讓他顯得很有趣并且非常有用,像是能交談的那種。我不知道。他將很多通常不會集中在一個人腦子里的技能聚集在一起。
主持人:這如何影響你讓他去做的事情?所以你看到他有這些特點,然后你想,Roon應(yīng)該去做什么?
Sam Altman:我很少有機會讓任何人去負責某件事。就像關(guān)于研究人員的一點是,他們會去做他們要做的事情,而且就是這樣。
主持人:有人在網(wǎng)上發(fā)布了一篇文章,說在他們在OpenAI工作的所有時間里,他們幾乎從不發(fā)送或接收電子郵件,因為很多事情都是通過Slack完成的。為什么會這樣?你對為什么電子郵件不好而Slack對OpenAI有利的看法是什么?
Sam Altman:我同意電子郵件不好。我不知道Slack是否好用,我懷疑它不是。我認為電子郵件非常糟糕,所以要做出比電子郵件更好的東西,門檻并不高。我認為Slack比電子郵件更好。正如你所觀察到的,我們同時有很多事情在進行,我們必須非常迅速地行動。這絕對是一個節(jié)奏非常快的組織。
所以,Slack有好處,但也有一些問題。比如,你知道,我有點害怕早上第一個小時和睡前最后一個小時,我就是那種會感到焦慮,應(yīng)對這種爆發(fā),松散層面。而我認為它確實會產(chǎn)生大量偽造的工作。我懷疑有一些新的東西可以去構(gòu)建,那將取代目前許多辦公生產(chǎn)力套件。無論你怎么看待比如文檔、幻燈片、電子郵件、Slack,隨便什么,那將會是某種基于AI的這些事物的版本。
這并不是你可以隨意附加那種可怕的東西的地方,你不小心點擊錯地方它就會試圖為你寫整篇文檔或進行摘要某個線程之類的東西。但是,實際上你所信任的那個版本,你的AI代理和我的AI代理來處理大多數(shù)事情,并在必要時再向我們升級。我覺得這可能終于對某人來說這是一個唾手可得的好解決方案。
主持人:你們內(nèi)部離做到這一點還有多遠?也許并不是一個經(jīng)過全面測試、適用于全世界每個人的產(chǎn)品,而是你會與OpenAI共同使用它。
Sam Altman:非常遙遠,但我懷疑只是因為我們還沒有嘗試過,并不是因為模型距離那樣遙遠。
主持人:但由于人才、時間和人力資本在你公司內(nèi)極為寶貴,為什么那不應(yīng)該成為優(yōu)先事項?
Sam Altman:可能吧,我們應(yīng)該去做,但就是,有點,你知道,人們變得固守已見做事的方式,而且我們做到了很多事情進展得非常順利現(xiàn)在。所以,像一個重大的新事物需要很高的啟動能量。
2、展望GPT-6:從“研究火花”到“科學引擎”的飛躍
主持人:GPT-6有什么讓你覺得特別的地方?
Sam Altman:果GPT-3像是第一次讓人看到一種感覺,就像精神圖靈測試被通過的一絲曙光,GPT-5是你第一次看到AI一線曙光的時刻,做新的科學研究。就像非常微小的事情,但你知道有時候有人會發(fā)帖說,哦,它想明白了把這件事搞清楚了,還是哦,這是伴隨這個新想法出現(xiàn)的,或者哦,這很有用合作者在這篇論文上。并且GPT-6將會是一個像GPT3到4飛躍一樣那發(fā)生在類似圖靈測試那類的事情上。對于科學來說,五代有這些微弱的閃光點,而六代真的可以做到。
主持人:假設(shè)我經(jīng)營著一個科學實驗室,并且知道GPT-6即將到來。我現(xiàn)在應(yīng)該做些什么來為此做好準備?
Sam Altman:這總是一個非常難的問題,就算你知道這件事會發(fā)生。
主持人:我現(xiàn)在也經(jīng)歷過了,對吧?第二天早上我到底要做什么?
Sam Altman:嗯,我的意思是我猜測你首先會做的事情是直接輸入在當前研究你正在苦惱的問題,也許它會說比如這是一個想法或做這個實驗,或者去做這件其他的事。
主持人:但如果我在考慮重組整個組織,把GPT-6放在它的核心,或者GPT-7無論什么作為中心,我在組織層面上應(yīng)該做什么?而不是僅僅讓我所有的高層把它當作附加功能來使用到他們當前的知識儲備?
Sam Altman:我已經(jīng)就這個背景進一步思考過了,公司比起科學家更適合做這事,只是因為我對那更了解。我認為這是一個非常重要的問題,眼下我確實遇到一些組織真的在說,好吧,我們要采用AI,讓AI在某種程度上來做這些事情。但是我對這個很感興趣,因為如果OpenAI不是第一家由AI CEO領(lǐng)導(dǎo)的大公司,那可真是我的恥辱。
但最終它應(yīng)該覆蓋整個內(nèi)容,對吧?所以,我們可以先用這個,然后嘗試去倒推去做從那點出發(fā)。我覺得這是一個非常有趣的思想實驗:需要發(fā)生什么才能讓一個AI CEO能夠在管理上做得好得多得多。這顯然終有一天會發(fā)生,但我們?nèi)绾文芗铀龠@一進程?阻礙這件事的是什么?我發(fā)現(xiàn)這對我們?nèi)绾卧O(shè)計我們的事情是一個非常有用的思維實驗,隨著時間推移組織的發(fā)展以及其他部分和可能出現(xiàn)的路障。我想當然地認為有人經(jīng)營一個科學實驗室應(yīng)該也要以類似的思路去思考,他們會得出不同的結(jié)論。
主持人:你認為距離那種情況還有多遠,比如說OpenAI的一個部門就那樣做了?是85%由AI來運營嗎?任何一個單獨的部門嗎?
Sam Altman:幾年內(nèi),不遠。你認為什么時候我可以說,“好吧,先生,AI CEO,你來接管”?
主持人:CEO這個角色很棘手,因為CEO的公眾角色,正如你所知,變得越來越重要。
Sam Altman:假設(shè)我繼續(xù)留任,我的意思是,如果我可以假裝成一名政治家,但這并不是我的天賦,而且AI也能做到。但比方說我保持參與,像是持續(xù)參與一下面向公眾的的部分,實際上核心是做出正確決定,弄清楚該做什么。
主持人:我認為你會看到由兩三個人和AI運營的數(shù)十億美元公司。我不知道是不是在兩年半內(nèi),我過去以為是一年,但也許我把它推遲了一點。我對AI并不更悲觀,也許我對人類更悲觀一些。但你的預(yù)測是什么?
Sam Altman:我在這些方面都同意。我認為AI比那更早就能做到。我認為這是一件對社會有利、對未來有利的事情,而不是有害的。人們擁有大量比AI更信任他人的傾向,即使不應(yīng)該,即使那是不理性的。你知道,AI醫(yī)生更厲害,但你還是想要某種人類醫(yī)生。所以,我認為這可能需要更長的時間讓社會真正熟悉起來,以及組織中的人真正熟悉這一點。但在實際的決策上,對于大多數(shù)事情,也許很快AI就會相當出色。
主持人:而且你們在招聘很多聰明的人。你會問自己嗎,這個非常聰明的人對AI的抵抗力有哪些標志?就像你有一個隱含的心理測試,還是你直接雇用聰明的人,然后希望以后一切都會好起來?
Sam Altman:不,我確實會問,我確實會問這些問題。
主持人:但人們會撒謊,對吧?就像他們知道你在跟OpenAI對話一樣。你實際上在他們身上尋找什么?
Sam Altman:我的意思是,一個很重要的方面是他們今天如何使用AI。那些人仍然會說,“哦,是的,你知道的,我用它只是為了更好地進行Google搜索,別的什么都不用。”那并不一定是個拒絕的理由,但這像是一個黃色警示信號。而那些非常認真考慮他們?nèi)旰蟮娜粘鞘裁礃幼拥娜耍鞘且粋€積極信號。很多人沒有這樣想,他們會說,“哦,對,你知道的,可能它會非常聰明。”
主持人:你認為科學實驗室今年可能會用上GPT-6嗎?
Sam Altman:今年不會。
3、AI與商業(yè):信任是基石
主持人:我這個夏天和妻子去了法國和西班牙旅行。我們預(yù)訂的每一家酒店,除了第一家,都是通過GPT-5找到的。我們不是通過GPT預(yù)訂的,我們吃的幾乎每一頓飯,對吧?而且你一分錢都沒拿到。我當時跟我妻子說,這簡直看起來不對,是吧?很快新的世界會是什么樣子?那將如何運作?
Sam Altman:我覺得如果ChatGPT在給出答案之前就提醒你要退一步看問題,這是我們前一段時間注意到的一個比較少見的現(xiàn)象。事情之一是,在問題更嚴重的時候,ChatGPT會持續(xù)地被報告為某個用戶最信任的技術(shù)產(chǎn)品。表面上看這非常奇怪,因為AI正是會產(chǎn)生幻覺的東西,AI就是充滿各種錯誤的東西,而在那時,這個問題要嚴重得多。以及為什么會有這樣一個問題:在Google搜索上的廣告竟然依賴于Google做得不好。比如說如果它給了你最佳答案,那就沒有理由永遠不必在它上方購買廣告。所以你有點兒會覺得,那東西并不太符合我的立場。ChatGPT,也許它會給你最好的答案,也許不會,但你在付錢,或者希望是所有人都在付錢,并且它至少在努力給你最好的答案。這導(dǎo)致人們與ChatGPT建立了一種深厚且相當信任的關(guān)系。你向ChatGPT詢問最佳酒店,而不是向Google或其他東西詢問。如果ChatGPT接受付費把更差的酒店排在更好的酒店之上,那這對你和ChatGPT的關(guān)系可能是災(zāi)難性的。
另一方面,如果ChatGPT向你展示它會猜測最好的酒店,不管那是什么,然后如果你一鍵預(yù)訂它,會抽取和從任何其他酒店同樣的那部分分成,而且沒有什么對它有影響,但有某種交易費用,我認為那大概沒問題。結(jié)合我們最近的電商項目,這就是我們想要做的,我們遲早會在旅行方面也這么做。
主持人:但讓我說說我的擔憂,那就是可能會對傭金設(shè)定一個嚴格的上限,我們現(xiàn)在設(shè)想處在一個有Agent的世界里,有人通過GPT-7找到最好的酒店,然后他們就對著電腦或佩戴設(shè)備說話,然后他們?nèi)ツ硞€地方。但更愚蠢的服務(wù)是一個以極低價格預(yù)訂的代理,而他們實際上只需要支付向OpenAI收取與最愚蠢的服務(wù)所收取費用相同的傭金。
Sam Altman:關(guān)于這點我總體上相信的一件事是利潤率將會下降,大多數(shù)商品和服務(wù)的價格大幅下降,包括酒店預(yù)訂等項目。我為此感到高興,我覺得有很多稅收對經(jīng)濟確實有害,而且把這些稅降下去總體上會很好。但我認為大多數(shù)公司,像OpenAI,會以更低的利潤率賺更多錢。
主持人:但你是否擔心這種差異:將你的模型打造成最聰明模型所需的固定前期成本與所有競品極低的成本相比?Agent要做的只是為某人預(yù)訂它,你如何利用傭金來支付本質(zhì)上讓模型更聰明的費用?
Sam Altman:我認為變現(xiàn)世界上最聰明的模型的方式當然不是訂酒店。
主持人:但你仍然想要去做。
Sam Altman:我想去發(fā)現(xiàn)新的科學,并想辦法實現(xiàn)那些只有最聰明的模型才能做的事情的商業(yè)化。有一個問題,很多人問,OpenAI到底應(yīng)不應(yīng)該做ChatGPT?為什么你們不直接去構(gòu)建AGI?你為什么不去發(fā)現(xiàn)治愈所有疾病、實現(xiàn)核聚變、便宜的火箭等所有技術(shù),然后把那項技術(shù)授權(quán)出去?這不是一個不公平的問題。我相信那些將是我們要做的、最終最重要的事情,并且最終帶來最多收益。但我關(guān)于這如何運作、世界如何變得顯著更好的最可能的故事是,我們把一個真正強大的超級智能掌握在每個人手中。我們讓它非常易于使用,它集成得很好,我們?yōu)槟愦蛟炀赖脑O(shè)備,我們將所有服務(wù)連接起來,它會在你的一生中逐漸了解你,它為你完成所有這些工作。
我們投資基礎(chǔ)設(shè)施以及芯片、能源和整個體系,使其極其充足且極其廉價。然后你們大家想辦法讓世界變得更好。也許有些人一輩子只會訂酒店,而不會做任何其他的事,但很多人會弄清楚他們能做越來越多的事情,并且創(chuàng)建新公司、想法和藝術(shù)等等。所以也許聊天機器人、酒店預(yù)訂以及其他類似的東西并不是我們能賺錢的最好方式,事實上,我可以確定不是。我確實認為這對世界來說是非常重要的事情,而且我很高興OpenAI去做一些不是以經(jīng)濟最大化為極限的事情。
主持人:現(xiàn)在你們和Walmart有一個正在進行的合作,人們可以在那上面使用GPT提出問題,比如“我應(yīng)該在Walmart買什么”,然后他們就可以在Walmart買到它,還有你擁有沃爾瑪達成某種安排。你認為亞馬遜會加入,還是他們會反擊并嘗試去做他們自己的事?
Sam Altman:我不知道。如果我是他們,我會反擊。
主持人:廣告對OpenAI來說將會是多重要的收入來源?
Sam Altman:再說一次,有一種廣告我認為那會非常糟糕,就像我們之前討論過的。有些廣告類型我覺得會非常好,或者說做起來相當不錯。我預(yù)計這是我們某個時候會嘗試的東西,我認為這不是我們最大的營收機會。
主持人:頁面上的廣告會是什么樣子?
Sam Altman:我不知道。如果你剛才問的是關(guān)于生產(chǎn)力的問題,我很擅長不去做那些我不想做的事情。你知道,我們有世界級的專家在思考我們的產(chǎn)品策略。我以前就是那樣做的,我過去經(jīng)常花大量時間思考產(chǎn)品,現(xiàn)在她比我做得好得多,我還有別的事情要考慮,我相信她會想明白的。
主持人:無論你是否同意,什么才是最好的“這不是一個泡沫”的論點?僅僅是對算力的無盡需求嗎?
Sam Altman:有很多論點我很想提出,但我認為從理性上來說最有趣的一點是我們根本不知道過去的人類水平智能能走多遠,以及隨著它的發(fā)展你能用它做什么。所以所有人都提出了各種論點。我希望人們能更多討論的一個問題是,你該如何去思考遠遠超出人類的智能及其對經(jīng)濟的影響。
主持人:現(xiàn)在OpenAI正在與沙特阿拉伯和阿聯(lián)酋進行洽談。讓我們以對這一切進展最樂觀的情形來設(shè)想。OpenAI的高層管理者想要知道或理解關(guān)于那些國家的什么?你是如何學會這些的?
Sam Altman:這取決于我們用它們做什么。在一個國家建立數(shù)據(jù)中心,或接受來自一個國家的投資,或者部署商業(yè)服務(wù),將會非常不同于一系列其他我們可以想象的合作。但一般來說,把數(shù)據(jù)中心放在一個國家時,我們需要理解的是誰將來運營它(我們不運行自己的數(shù)據(jù)中心,但你知道的,微軟或甲骨文或其他人會運行),我們要把什么工作負載放到那里,那么我們要把哪些模型權(quán)重放到那里,以及有哪些安全保障將會是什么樣子。我們確實希望在世界各地與許多國家一起建設(shè)數(shù)據(jù)中心。但目前我們并沒有這樣的計劃。例如如果我們要為某個國家開發(fā)定制模型,我們會有更多的問題。
主持人:但他們有不同的法律法規(guī),對交易的期望也不同。我不是說這是件壞事,這就是完全不同的感覺。你會做Jared Kushner那一套嗎?“這是我讀過的25本書”,或者你坐下來問GPT-6如何理解這種文化,或者你請來三位專家?
Sam Altman:我們經(jīng)常與美國政府溝通,我們請來專家。再說一次,如果我們在構(gòu)建一個數(shù)據(jù)中心,那是一位非常值得信賴的合作伙伴將負責運行,我們知道工作負載是什么,并且它正在被構(gòu)建得像是一種美國大使館或美國軍方基地,我們要面對一套非常不同的問題,而不是如果我們正在做其他事情時會遇到的問題。那些事情我們還沒有決定去做,到時候我們會請更多專家來參與。
主持人:那些通常是相當無形的,經(jīng)常是知識的形式。你認為GPT-6會有多強?它是在教你們這些東西,還是你們?nèi)匀恍枰祟悓<医槿耄恳驗槟阃耆梢灾苯訂柲銈冏约旱哪P停瑢Π桑?/p>
Sam Altman:我不認為GPT-6會具備那些無形特質(zhì)。如果我說“哦,不要再和專家交流了”,那就太意外了。
主持人:你們在做這方面的評估嗎?
Sam Altman:實際上,我們確實在做一項非常接近的評估。我不想提前宣布,但就是那一類東西。
主持人:GPT-6在詩歌方面會有多厲害?
Sam Altman:你認為GPT-5在詩歌方面有多厲害?
主持人:不太好。這不是我想要的,所以那算不上抱怨。我的猜測是一年內(nèi)你會有某個模型,能夠?qū)懗雠c中位水平的巴勃羅·聶魯達詩作同樣好的詩歌,但不是最好的。
Sam Altman:我覺得我不想說GPT-5,無論是六代還是七代,但我認為我們會達到某種程度,你會說這就像一首真正詩人的好詩。
主持人:我認為在一首詩,比如一首評分在1到10之間為7的詩,和一首評分為10的詩之間存在一個很大的差距。我不確定你是否能達到10分。我認為你會達到8.8分。
Sam Altman:我認為我們會達到10分,但你就不會在意了。
主持人:誰不會在意?
Sam Altman:你不會在意的。
主持人:我會在意的。
Sam Altman:我的意思是,你會在技術(shù)成就方面關(guān)心,但就像那些偉大的藝術(shù)作品,以及由人類產(chǎn)生的情感和其任何東西,你會非常在乎這個人,或在乎某個人創(chuàng)造了它。而且從技術(shù)優(yōu)點上講,AI寫出10分是完全有可能的。你知道,我的經(jīng)典例子就是:最偉大的棋手并不在意AI在棋力上遠超他們。這并不會讓他們失去下棋的動力。他們并不真的在意AI,他們真正關(guān)心的是擊敗其他人類。他們真的會對面坐著的那個人著迷。但實際上AI更強,他們并不在意。看兩個AI互相對弈,持續(xù)看下去并不太有趣。
主持人:但我來告訴你我對達到10分評價的擔憂:我們非常依賴這些評分標準。而這些評分標準會變得足夠好,從而產(chǎn)出非常優(yōu)秀的詩歌。但也許關(guān)于那首得10分的詩,有些東西超出了評分標準。如果你只是訓練在評分標準上,在某種程度上,這可能對達到10分適得其反。
Sam Altman:我的意思是,評估可以依賴很多因素,包括何時調(diào)用那10分,何時不調(diào)用。并且你可以在此過程中閱讀大量內(nèi)容并提供一些實時信號。
主持人:但假設(shè)我們今天沒有人類詩人用筆寫作,而我們卻讓同樣的人來評判和評分這些GPT。我很擔心。不過,我認為會沒事的。但對我來說,我們談的是九分,而不是十分。你不能指望威廉·華茲華斯為OpenAI工作。
Sam Altman:這就引出一個非常有趣的問題,那就是比如說你寫不出一個10分,但你可以決定什么時候某件事是滿分。是的,那可能就是我們所需的一切。
主持人:或許只有人類集體才能決定什么是滿分,而那其中有些東西有點神秘,并且對那個過程充滿歷史感。
Sam Altman:好吧,但我們?nèi)匀豢梢宰龅健,F(xiàn)在也許我們的決定不是很好,因為它是歷史負載且隨著時間漂移。有些事情我們都認為很棒。我們下一代決定的并非隨意。但如果隨便哪個過程,人類必須決定什么是一首詩是10分,你可以想象向一個AI提供某種信號。再說一次,如果你知道它是一個AI,或許你就不會在意。我們在AI藝術(shù)中也看到這種現(xiàn)象。
主持人:在某種程度上,你最終會去制造你自己的芯片,哪一部分是最難的?
Sam Altman:老實說,哪兒都挺難的。這里面沒有容易的部分。
主持人:是的,這中間沒有容易的部分。
Sam Altman:人們常常大量討論的是用于AI研究的遞歸自我改進循環(huán),在哪里AI可以幫助研究人員,也許今天能更快地寫代碼,最終實現(xiàn)自動化研究,這件事被非常好地理解,被廣泛且深入地討論。很少有人討論的是,或者相對較少被討論的是這方面的硬件影響:能建造其他機器人的機器人、能建造其他數(shù)據(jù)中心的數(shù)據(jù)中心,能夠設(shè)計出下一代自己的芯片。所以有許多困難的部分,但也許很多都會變得容易得多。也許問題是芯片設(shè)計領(lǐng)域?qū)⒈蛔C明是一個對前幾代人來說非常好的問題。
4、應(yīng)對根本挑戰(zhàn):能源瓶頸與算力未來
主持人:這是可能最愚蠢的問題。為什么我們不干脆多造點GPU?
Sam Altman:因為我們需要產(chǎn)生更多的電子。
主持人:但是什么在阻止那件事發(fā)生?最終的約束是什么?
Sam Altman:我們正在非常努力地做這件事。
主持人:但如果你能讓某一件事?lián)碛懈嘤嬎阗Y源,那件事會是什么?
Sam Altman:電子。
主持人:電子?
Sam Altman:是的。
主持人:只是能源。
Sam Altman:是的。
主持人:那在短期內(nèi)最可能的解決方案是什么?緩解,而不是完全解決方案,只是緩解這種約束。
Sam Altman:短期是天然氣。在美國南部或其他任何地方。長期來看,我認為將被聚變和太陽能主導(dǎo)。我不知道具體比例,但我會說這兩者是贏家。
主持人:你仍然看好聚變嗎?
Sam Altman:非常看好。太陽能。
主持人:你擔心只要它被稱為核能,即便它有效,也會有問題嗎?只是人們不會想要它。
Sam Altman:你是經(jīng)濟學家。但我認為存在某個在特定安全水平下的價格點,對此的需求會壓倒性地增長。如果這跟天然氣價格相同,那可能就很困難了。如果只有十分之一的價格,我認為我們可以同意這會發(fā)生得非常快。我不知道兩者之間的分界點在哪里。
主持人:你有沒有擔心過會有某種情形,最終超級智能并不需要那么多算力?以一種有趣的方式,通過投資算力你其實是在押注進展不會那么快?在30年時間跨度內(nèi)。
Sam Altman:就像人們總是想要更多的能源一樣,如果它更便宜也會想要更多。我認為人們總是會想要更多算力,如果它更便宜。所以,即使你能做得令人難以置信地更少計算資源就能運行的智能模型,我相信你能做到,消費欲望會以各種全新的方式,并用更充足的智能做更多的事情。我每天都會接受那個賭注。我所擔心的相關(guān)問題是,就是有點像在計算方式上發(fā)生了巨大的相位轉(zhuǎn)變,而我們都在某種程度上追逐一個死胡同范式。那將很糟。
主持人:那會是什么樣子?
Sam Altman:我不知道。我們都改用光學的計算機?像完全光學的那種計算機還是別的什么?
主持人:然后不得不再次花很多錢?
Sam Altman:不是所有方面都一樣,能源方面是能源,但其他方面都是如此。
主持人:現(xiàn)在我喜歡Pulse。為什么我沒怎么聽到有人談?wù)揚ulse?或者你覺得外面有很多閑談嗎?
Sam Altman:人們很喜歡Pulse,但它僅對我們的專業(yè)用戶可用,現(xiàn)在,數(shù)量并不多。而且我們每天也沒有給用戶太多。我們會改變這兩點,但是,我懷疑當我們向Plus用戶推出它時,你會聽到更多相關(guān)的討論,但人們確實很喜歡它。它得到了非常非常好的評價。
主持人:你用Pulse做什么?
Sam Altman:目前我生活中其實只有兩件事,比如我的家庭和工作。我明顯是在跟ChatGPT講這個,因為我收到很多相關(guān)的東西。你知道,我偶爾會收到像新的Hypercar出來了,或者像“這里有一個很棒的徒步路線”,或者隨便什么的。但主要就是那兩件事,不過對那方面很有幫助。
主持人:我只是想做一個簡短的插入環(huán)節(jié),關(guān)于你對世界更廣泛的看法,以及僅僅看看我應(yīng)該如何思考你的思維方式。所以,加利福尼亞的人們他們有很多觀點,比如關(guān)于他們自身的健康,其中有些聽起來對我來說有點瘋狂。你認為你最瘋狂的觀點是什么?關(guān)于你自己的健康,你認為你會永遠活著嗎?比如你認為種子油有害,還是其他什么?還是沒有嗎?
Sam Altman:以前沒那么忙的時候,我在健康相關(guān)的事情上更自律。我沒有特別極端的觀點,但我是那種算是比較注意飲食健康的人。我喝得不多。我經(jīng)常鍛煉。我在這兒那兒嘗試過一些東西,比如我曾經(jīng)因為在它流行之前嘗試司美格魯肽而住過一次醫(yī)院。像那種事。但我現(xiàn)在基本上什么都不做。你知道,就是放棄家庭生活并嘗試。我吃垃圾食品。我鍛煉得不夠。情況相當糟糕。我感覺像是被逼著又要更認真地對待這件事。
主持人:是的。但為什么要吃垃圾食品?好像味道不好。
Sam Altman:味道確實很好。
主持人:和高檔壽司比起來,你本來就能負擔得起高檔壽司。
Sam Altman:有時候半夜11:30會想吃那塊巧克力曲奇,對吧?至少我是會想。
主持人:你覺得土星的衛(wèi)星上有外星生命的可能性嗎?因為我會。那是我一個瘋狂的看法。
Sam Altman:我對此事沒有意見。我不知道。
主持人:現(xiàn)在若干年前,這還是在GPT-4之前,我問你是否正在把一筆資金用于振興圣路易斯,你是在那長大的,你會如何投資這筆錢?現(xiàn)在的世界與我上次問你時已經(jīng)大不相同。如果我再請你去振興圣路易斯,你會怎么花這筆錢?假設(shè)是十億美元,并不是徹底變革性的,但它足夠真實,確實是一筆可觀的錢。
Sam Altman:十億美元,我愿意投入個人時間去做。
主持人:你有空閑時間。宇宙賜予你空閑時間。這不會從你正在做的其他任何事情中抽走時間。
Sam Altman:我會去嘗試啟動一個類似于Y Combinator的項目在圣路易斯,并且吸引大量初創(chuàng)公司創(chuàng)始人,專注于AI的人搬到那里并創(chuàng)辦一堆公司。
主持人:這和上次的回答相當相似。我不記得我上次說了什么,所以這是個好現(xiàn)象。你也說了同樣的話,但你沒有提到AI。不過在我看來,我們在灣區(qū)的AI似乎相當集中。正在嘗試把AI引入圣路易斯,做到這一點的正確方法是什么?從某種意義上說,這不是在與硅谷作對嗎?
Sam Altman:這就是為什么我說那對我來說會是獨一無二的事情。我覺得我可以做到。也許這聽起來無比天真。
主持人:是的。把一個AI Agent放到野外,既無人擁有、無法追蹤,這應(yīng)該合法嗎?我們需要其他某種AI Agent去那里應(yīng)對,把它解決掉?或者有最低限度的監(jiān)管要求?你如何看待那個問題?
Sam Altman:我認為這是一個門檻問題。我并不是說你會主張那樣做,大多數(shù)系統(tǒng)應(yīng)該有任何監(jiān)督或監(jiān)管,或者法律問題之類的,但如果我們有一個有相當高概率具備在互聯(lián)網(wǎng)上大規(guī)模自我復(fù)制能力的AI,比如把所有錢從銀行賬戶里清空之類的,然后你可能會說,好吧,也許那件事需要一些類似的監(jiān)督。所以我認為關(guān)鍵在于你劃定閾值的地方,在哪些情況不應(yīng)該這么做。
主持人:但比如說,是從一個半流氓國家租用云計算資源,所以你不能只是把它關(guān)掉。我們到底應(yīng)該做什么,或者我們能做什么?只是嘗試以某種方式將它圍起來、識別它、監(jiān)視它,對支持它的國家實施制裁?
Sam Altman:我天真的看法是,我還不知道正確答案是什么,但我的幼稚觀點是我們應(yīng)該盡快為那些使用諸如流氓互聯(lián)網(wǎng)資源的人解決這個問題,迫切需要解決。而且AI只會成為那個問題的一個更糟糕的版本。
主持人:不過它也會有更好的防御措施。現(xiàn)在,如果我考慮社交媒體和AI,這里有一件我在自己工作中注意到的事情。我非常非常想讀到GPT-5對我自己提問的回答,但當別人把他們提問的回答發(fā)給我時,我感到無聊。我不怪他們。比如,我知道這對他們非常有用,但這讓我對把社交媒體和AI混合在一起有點懷疑。我是不是漏掉了什么,或者你會試圖以某種方式勸我不要那樣做?
Sam Altman:我沒有,我也一樣。我也是,我也不想看你的聊天查詢。我也相信,你可能不想讀我的,但對我來說它們很棒。所以我認為ChatGPT很像一種單人體驗。我并不認為這就意味著沒有一些有趣的新型社交產(chǎn)品可以構(gòu)建。事實上,我相當確定是有的,但我不認為那會是類似“分享你的ChatGPT查詢”那種東西。
主持人:比如視頻方面?
Sam Altman:你知道人們顯然喜歡他們自己制作,但也喜歡觀看別人生成的AI內(nèi)容視頻,但我覺得這些都不是真正有趣的,你能想象的那種東西,什么時候你和我以及其他所有人都有非常棒的能夠代表我們執(zhí)行任務(wù)的個人AI代理。可能會出現(xiàn)全新的社會動態(tài)需要考慮。
主持人:以及在我屏幕或智能手機上看到的ChatGPT的物理形態(tài),這種形態(tài)大致會保持不變,但它會變得更好。或者13年后,它在物理上將完全成為另一種存在,因為我現(xiàn)在就能和它對話。你看,現(xiàn)在它還能處理視頻。它只是更好的版本,還是會以某種方式發(fā)生變形?
Sam Altman:我們將嘗試為你打造一種全新的計算機,配備一種完全全新的接口,那是為AI準備的。我認為我們曾經(jīng)擁有過某種完全不同的東西于此。我們在過去50年里一直使用并且目前仍被困在其中的計算范式,像AI這樣的技術(shù)對可能性空間而言是一個瘋狂的變革。許多關(guān)于如何使用計算機的基本假設(shè),例如是否需要打開操作系統(tǒng)、打開窗口或發(fā)送查詢,現(xiàn)在都受到了質(zhì)疑。
我意識到,那些聲稱要發(fā)明新型計算機的人,過往記錄非常糟糕。但如果只能押注一個人來做這件事,我認為Jony Ive是一個可信的,也許是你能下注的最佳人選。我們拭目以待,看它是否有效。我非常期待嘗試。
主持人:但這難道不會讓你感到意外嗎?人們喜歡在框里輸入文本這一點有多穩(wěn)固?從更大的角度看,這讓我有點震驚。人們?nèi)匀灰恢痹诎l(fā)短信,它是互聯(lián)網(wǎng)上最強大、最穩(wěn)健的交互形式之一。也許那種方式會永遠保留,這反映了我們自身的局限性。但我們?nèi)绾尾拍艹竭@一點?
Sam Altman:我會發(fā)短信、發(fā)命令行、發(fā)搜索查詢,那是我最喜歡的界面。人們喜歡發(fā)短信,人們喜歡使用ChatGPT。我記得我們在思考ChatGPT的界面時,非常肯定這是人們會熟悉并愿意使用的東西。我想我作為在互聯(lián)網(wǎng)時代長大的人,有著強烈的信念,認為發(fā)短信是正確的,那幾乎就是我青少年時期的全部生活。
主持人:如果你與一所高等院校有某種理想的合作安排,比如在兩到三年內(nèi),這會是什么樣子?你可以完全自行撰寫整套內(nèi)容。
Sam Altman:我懷疑整個模型都應(yīng)該改變,但我不知道應(yīng)該怎樣改變。我覺得理想的合作方式是我們嘗試20個完全不同的實驗,然后看看哪種能帶來最佳結(jié)果。我一直很感興趣地關(guān)注這些AI學校的出現(xiàn),看起來它們有很多,而且采用了非常不同的方法,都顯示出積極的結(jié)果。但我認為,理想合作關(guān)系的最初幾年會是我們做大約20個完全不同的實驗。
主持人:有時候我擔心這些機構(gòu)會沒有足夠的內(nèi)部聲譽力量或可信度來做任何重大改變。別想AI了,與那樣的機構(gòu)建立合作關(guān)系可能本質(zhì)上就是令人沮喪的。在接下來的十年里,實際模型在某種程度上是私有化的,由教師、學生、實驗室在一旁使用的AI。在某種意義上,并不存在真正的合作關(guān)系,而僅僅是把你的產(chǎn)品推銷給這些人。你有沒有想過那可能是真的?
Sam Altman:我不認為那會讓我非常難過,如果那真發(fā)生了。
5、AI重塑社會:工作、教育與社會契約
主持人:你認為大學學位的回報會怎樣變化?不是哈佛,也不是斯坦福,而是像一所相當不錯的州立大學,五到十年后。
Sam Altman:那個價值的歷史衰減率是多少?
主持人:最近它是下降了,盡管很長一段時間內(nèi)它曾經(jīng)上升了相當多。
Sam Altman:我的意思是,大概過去十年左右。
主持人:哦,已經(jīng)降低了。我不知道降了多少。
Sam Altman:我會猜測它會比上一個十年稍微更快地下降,但并不是急劇降到趨近于零。我的意思是,大量的回報會累積到面向少數(shù)人的AI上。但我認為高效使用AI的回報非常可觀,且出人意料地廣泛分布。我并不是一個信徒,相信AI最重要的事情是為我們所有人發(fā)現(xiàn)新的科學,很多人會從中受益,人們會因此創(chuàng)業(yè)或找到相關(guān)工作。但我不認同那就是最終唯一能賺錢的東西。
我認為人們將會使用AI用于各種新型工作,或用于更好地完成現(xiàn)有的工作。你知道,也許在2025年這方面最明顯的例子就是硅谷程序員今年年初的工作流程與今年年底的工作流程對比,截然不同。你并不真的需要知道如何編程AI去那樣做,但你現(xiàn)在可以完成更多事情,你可能擁有更多價值,這個世界將會變得更加軟件化。我認為我們會在相當多的行業(yè)里看到類似的情形。
主持人:但假設(shè)五年后有一個所謂的普通人,他們不是專家,他們想學會更好地使用AI。他們實際上會做什么,那將給他們帶來高回報去獲得那項技能?
Sam Altman:我記得當時我還是個孩子,Google出來了,我有一份工作教年紀更大的人如何使用Google。感覺就像我那會兒說的,你輸入東西,它就會這樣做。我對AI抱有希望的一點是,我認為ChatGPT迅速成長的原因之一是它如此容易上手并學會使用,并從中獲得真正的價值。因此我們不需要創(chuàng)業(yè)公司來做那件事,或者教人們?nèi)绾稳プ瞿切┦碌娜恕?/strong>人們一旦開始使用它,就會發(fā)現(xiàn)越來越多更復(fù)雜的用法。我相信人類的創(chuàng)造力以及對新事物的采納。
主持人:但你也可能只是想支持或投資那些初創(chuàng)公司,因為如果你看好AI,很可能也會看好那些初創(chuàng)公司,而它們反過來會對你的業(yè)務(wù)有所幫助。所以看起來沒有一套關(guān)于我們將如何學習更好地使用AI的理論有點奇怪。比如你可以去上訓犬師學校,他們還會教你如何訓練一只狗。
Sam Altman:我會去好好再想想這個。但如果你問ChatGPT比如“教我怎么用你”,所以也許AI本身就是學校。
主持人:假設(shè)當你的孩子長大成人,他們可以獨立外出生活,在那個未來世界里,你認為你還會讀書,還是只會與AI互動?
Sam Altman:書籍在很多其他技術(shù)變革中都存活了下來。所以,我認為書籍這一形式有某種深層的東西得以延續(xù)。但我懷疑會出現(xiàn)一種新的方式,去與一個比書籍在大多數(shù)事情上更優(yōu)秀的想法集群互動。所以我并不認為書籍會消失,但它們可能只占人們?nèi)绾螌W習或與一個新想法互動的更小比例。
主持人:你認為最會改變的文化習慣是什么?比如,“哦,我不再看電影了,我會為自己創(chuàng)作電影之類的。”AI會抹去你在23歲時所做的事情。
Sam Altman:我是說這有點無聊,但我認為我的工作方式,比如電子郵件、電話、會議,以及撰寫文檔之類的工作,處理Slack之類的信息交流,我預(yù)計會發(fā)生巨大的變化。我現(xiàn)在在工作日有一種文化習慣和節(jié)奏,花時間和家人在一起,比如花時間去大自然,吃東西,我與朋友的互動,這些事情我?guī)缀醪恢竿麜淖儭?/p>
主持人:你認為舊金山會繼續(xù)成為AI的中心嗎?
Sam Altman:是的,我想那是默認設(shè)置。
主持人:你覺得這座城市確實在徹底復(fù)蘇嗎?在我看來好看多了。
Sam Altman:我愛這座城市。我一直愛整個海灣地區(qū),我尤其愛這座城市。所以我不認為我是個公平的評判者,因為我太希望它能卷土重來。
主持人:AI會很快改進很多東西,但它在多長時間內(nèi)會讓租金或房價變便宜?那看起來挺難的。不是AI的錯,但土地就是土地,而且有很多法律限制。
Sam Altman:我認為AI在短期內(nèi)無法解決。食品價格可能會降低,但你知道短期內(nèi)能源可能會稍微更貴一些。
主持人:食品價格要多久才會下降?
Sam Altman:如果十年內(nèi)還沒進展,我會非常失望。
主持人:如果我們考慮醫(yī)療保健,我的感覺是我們將在醫(yī)療保健上花費更多,會因此得到很多好處,因為會有新的發(fā)明。但世界上很多地方會感覺更昂貴,因為房租不會更便宜。食物方面,我不太確定。醫(yī)療保健方面,你能活到98歲,但你得花更多錢。你只是活得更久,但花得也更多,對吧?那么,人們會把AI僅僅當作一件非常昂貴的東西,還是會把它視為讓生活更負擔得起的一件非常廉價的東西?
Sam Altman:我敢打賭我們在醫(yī)療保健上的支出會減少。我敢打賭有很多疾病我們現(xiàn)在就能治愈,或者想出非常便宜的治療方法,而不是現(xiàn)在這種既沒有治療又很昂貴、長期存在但效果并不好的問題。所以我會打賭醫(yī)療保健會變得更便宜,通過制藥、設(shè)備,甚至通過實際醫(yī)療服務(wù)的提供。住房在我看來是最難的那一項。
主持人:隨著一連串新想法的涌現(xiàn),你知道的,專利法、版權(quán)法這些都是基于更早期的技術(shù)以及對世界運行方式的早期模型制定的。我們是否需要重新審視或徹底改變這些以適應(yīng)一個AI驅(qū)動的世界,還是我們可以只是某種程度上保留我們已有的并稍微修改一下?
Sam Altman:我真的不知道。
主持人:我是言論自由的堅定支持者,但我可以想象世界會說,“好吧,隨著所有這些由AI驅(qū)動的內(nèi)容,我們需要重新審視第一修正案。”你對此有看法嗎?
Sam Altman:我最近發(fā)了一條推文,關(guān)于我們?nèi)绾卧贑hatGPT中允許更多的言論自由。
主持人:這是那條著名的推文。有趣的是人們會為一些事生氣。
Sam Altman:我們以前不是這樣的,直到不久前。我們會比過去更放寬一些。對我來說有一個非常重要的原則,那就是我們要把成年用戶當成年人來對待,而且人們對自己的AI享有非常高程度的隱私保護,這需要法律層面的變更。人們還應(yīng)當擁有在使用方式上有非常廣泛的自由度。對我來說,這應(yīng)該是最容易達成一致的事情之一。我有點兒隨手發(fā)了這條推特就合上電腦了,甚至都沒有想到這事兒會變得非常像一場風暴。
我們做了一個決定,我也認為這是一個公平的決定,因為我們想保護青少年用戶,我們對ChatGPT實施了嚴格限制,這總是非常不受歡迎的事情。隨著年齡分級和一些心理健康緩解措施的推出,我們打算恢復(fù)并在部分場景下增加使用自由度,以便成年人使用。我當時想,“是的,我會告訴大家那會到來的,因為第一個模型更新很快就會發(fā)布。”很明顯人們可能不相信言論自由,就像每個人都說自己的自由表達沒問題,但你的想法像是需要被限制。
主持人:并且為了更好的隱私權(quán)利,是否會被傳票要求提供證據(jù)?需要更改的權(quán)限還是還需要其他什么?
Sam Altman:傳票權(quán)。嗯,我相信我們應(yīng)該申請至少同樣好的保護,就像你和你的醫(yī)生交談時,你的真人醫(yī)生或你的真人律師那樣,就像你和你的AI醫(yī)生或AI律師交談時那樣。而現(xiàn)在我們還沒有那個條件。
主持人:你認為現(xiàn)在大家對這個有足夠的信任嗎?讓人們信任這些AI公司,就像我們信任醫(yī)生、律師和治療師那樣?
Sam Altman:我認為這是一件非常非常小的事情,但不是零。這就是為什么我們?nèi)桥苏麄€用戶群體或大多數(shù)用戶群體,原因是設(shè)置一堆限制實施。我們把成年用戶當成年人對待,其中包含一個星號,該星號是把有正常心智的成年人當作成年人對待的人。你知道,社會決定我們在有人出現(xiàn)精神危機時,會把他們和其他成年人區(qū)別對待。精神危機中的成年人和其他成年人不一樣。這是你在實踐中學到的事情之一。但當我們看到那種把GPT放入角色扮演模式,或者假裝像在寫一本書,并且讓它鼓勵某人在妄想中的情況,99%的成年人對此完全沒有問題。極少一小部分人,如果他們又去跟另一個會助長妄想的人說話,那就更糟了。所以我們做了很多更改,這與言論自由政策存在沖突。現(xiàn)在我們已經(jīng)實施了這些心理健康緩解措施,將再次允許其中的一些內(nèi)容,例如創(chuàng)造模式、角色扮演模式、寫作模式等。
我擔心的不是那個,你知道,會有少數(shù)幾個人會有接近失去對現(xiàn)實的把握,我們可能觸發(fā)他們的精神崩潰。我更擔心的是,有趣的是,那些在你腦海里揮之不去的東西。有人曾經(jīng)對我說過,永遠不要讓自己相信宣傳對你不起作用,他們只是還沒找到對你有效的那種宣傳手段。同樣,我毫不懷疑我們無法處理那些接近精神崩潰的人的明顯案例。
但盡管關(guān)于AI安全有那么多討論,我會把大多數(shù)AI思想家大致分成這兩派:壞人利用AI造成大量傷害,或者是AI本身不對齊,醒來、有意接管世界。還有第三類幾乎沒人談?wù)摰哪且活悾矣X得這更可怕也更有趣,比如AI模型不小心接管了世界。并不是說它們會引發(fā)精神病在你身上,但如果全世界的人都在和同一個模型對話,那就像是,并不是有任何意圖在背后,但正如它從世界和這種持續(xù)的協(xié)同進化過程中學習一樣,它就像在微妙地說服你某些事情。沒有意圖,只是這樣做了,不知怎的學會了這一點。那種就沒那么戲劇化,顯然不是聊天機器人精神錯亂,但我確實經(jīng)常思考這個問題。
主持人:或許我不夠優(yōu)秀,但作為一名教授,我發(fā)現(xiàn)說服別人相當難。我對此的擔憂比我許多與AI相關(guān)的朋友要少。最后一個問題,關(guān)于那些你可以在邊緣公開談?wù)摰氖马棥H绻憧梢哉堃晃粚<襾黼娫掃B線,幫助你解決心中一個重要的問題,那會是什么問題?
Sam Altman:我有一個準備好的回答,只是因為我過去遇到過一個問題。好吧,也許我會之后講個故事。這有點像一種精神上的比喻,不是按字面意思來理解。會有那么一刻,超智能被構(gòu)建出來,它通過了安全測試,它已經(jīng)準備就緒。我們?nèi)匀荒軌虮O(jiān)督它,但它將會做出極其令人難以置信的事情,它將會自我改進,它將會發(fā)射探測器去往恒星,諸如此類。然后你得到機會在提示框中輸入內(nèi)容,在它執(zhí)行之前,在你說“好”之前。問題是,你應(yīng)該輸入什么?
主持人:你現(xiàn)在有了一個初步的答案?
Sam Altman:不,我沒有。我之所以腦中準備好了這個答案的原因是,有人要去拜訪達賴喇嘛,說我可以問任何關(guān)于AI的問題。你想問什么?我當時想這是個多么好的機會,所以我認真思考了很久,那就是我的問題。
主持人:Sam Altman,非常感謝你。
Sam Altman:謝謝你。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.