上次提到了:“或許是因為最近Meta財報發布,或許是因為最近Llama受到的非議太多,或許是因為小扎個人的分享欲爆棚,還接受了 ,這個訪談犀利點評他人更多,他聊到了OpenAI、聊到了谷歌的Gemini,聊到了 Anthropic,全程還提及14次DeepSeek,8次China,4次Trump。”
本次訪談的這里帶來下篇。
本次訪談的幾大主題:
Llama 4、基準測試刷榜、開源vs閉源之爭
AI爆炸,但AGI 的商業模式是什么?
DeepSeek和中國、export controls和Trump
Orion智能眼鏡、人與 AI 的關系,如何避免被技術的獎勵機制劫持?
Llama 4 和其他AI模型的比較
以下是整個訪談的內容目錄,本篇只包含后5個部分。
一、How Llama 4 compares to other models
二、Intelligence explosion
三、AI Friends, Therapists & Girlfriend
四、 DeepSeek & China
五、Open source AI
六、Monetizing AGI
七、The role of a CEO
八、Is big tech aligning with Trump?
九、100x productivity
![]()
(我總覺得吧,我給他做的圖片有點過帥了......)
五、Open source AI
Dwarkesh Patel:最近?Sam?Altman?在推特上說,OpenAI 將發布一款開源的SOTA 推理模型,他還順帶調侃,說不會干“用戶不超過7億才能用”之類的蠢事。(you can only use it if you have less than 700 million users. 指申請使用 Llama模型的公司。)
DeepSeek 直接采用 MIT 許可,而 Llama 許可里有幾條附帶條件:你用它做應用時要在顯著位置標注 “built?with?Llama”,或者用 Llama 繼續訓練出的模型名字必須以 “Llama” 開頭。
你覺得 Llama 的許可,是不是對開發者太苛刻?要不要再寬松些?
Mark Zuckerberg:說實話,開源大語言模型這條路,基本算是我們先趟出來的,所以我并不覺得許可證苛刻。最開始大家甚至還在爭論:
把大模型開源,這事到底可不可行?
能否在保持安全、可信的同時開源?
開源模型能否做到足夠強,讓人真正想用?
當時Meta做了大量艱苦的工作,雖然也有其他團隊,但真正把局面徹底打開的還是Llama系列。
既然我們投入了那么多資源,至少得在大型云廠商——微軟、亞馬遜、谷歌——把我們的模型拿去賣錢之前,跟我們坐下來談談商業安排吧?
我們的許可證,初衷并不是阻止任何人使用,如果你是那類巨頭(有7億用戶以上的),比如Apple,那就來聊一聊,一起找個雙贏的方式。
到目前為止,這樣的做法運行得很好。
當然,如果哪天開源生態百花齊放、大家都有好模型,而Llama的這些許可證,反倒成了絆腳石,我們也會重新評估策略。
但現在,并沒有公司真的跑來抱怨“7億用戶”的條款,反倒是一些開源原教旨主義者總是嚷嚷:“這還算純粹開源嗎?”,但是他們并不是真正的客戶。
這種關于GPL、閉源API、二次開源義務的爭論,自開源模型誕生就存在。
可問題是,訓練這些模型,要花幾十億美元,要求和我們同級別的大公司在使用之前先來談一談,我覺得再正常不過。
DP:假設,今后出現一堆同樣出色的開源模型,某些模型在編碼等特定任務上甚至更強。那時開源生態已百花齊放,Meta 內部搞軟件工程、或面向自家應用部署時,會不會干脆選用別的模型,而不一定非得使用Llama?
MZ:這得先退一步看,我們之所以自己訓練大模型,是因為我們想要的東西市面上沒有。就算其他模型開源,你也得面對它們在架構、尺寸上的權衡,那直接關系到延遲和推理成本。而我們公司的規模太大,這些細節特別重要。
比如,Llama?Scout和Maverick設計成現在這個大小,是為了能單機運行、滿足某些語音場景的實時性:從眼鏡到所有應用、再到Meta AI App,都要用同一套底層能力。
只有自己造輪子,命運才掌握在自己手里。
當然,AI終將嵌入公司里的每一個環節。某些內部工具如果用Claude更合適,那就用 Claude,沒必要自縛手腳。
至于其他人也在做開源、我們就不重要了,我倒不是很擔心。如果沒有 Meta把方向推到開源,那些團隊還會開源嗎?
很多公司是看到趨勢,不得不跟,但他們真實的偏好是什么?Android 就是例子,開始很開放,現在卻越收越緊。
如果Meta停下來,也許別人就縮回去閉源了。基于這種不確定性,我們不能把未來押在別人持續開源的承諾上。
DP:你還提到“最好讓行業標準建立在美國模型,比如 Llama 上,我想弄清背后的邏輯。有些網絡效應場景確實這樣,比如蘋果的App Store。
但如果某個框架最初適配 DeepSeek,難道轉到 Llama 4 很難嗎?畢竟 Llama 3 還不是 MoE,Llama 4 就是了,每代模型自己也在變化。你為何認為,生態會按單一標準形成“鎖定”?
MZ:我說的標準,更多指模型里蘊含的價值觀與世界觀。
早期,我們拿Llama的一個版本做過多語種翻譯,好像是法語,法國用戶看了反饋說:“這聽起來像個會法語的美國人在說話,而不是地道法國人。”
并不是語言不通順,而是思考方式帶著美國味,這說明模型會把訓練語料的文化內核帶進去。
隨著模型更強,它們理應能體現多元價值觀。但我們測試一些來自中國的模型時,確實發現特定價值取向,已經深深嵌在里頭,不是輕描淡寫微調就能改掉的。
再看推理模型,如果它只做可驗證的數學題,那文化偏見問題就很小,可編程領域還要擔心安全問題:萬一某模型跟某國政府有聯系,悄悄在代碼里埋后門怎么辦?
未來,你的系統全靠它守護,某天它突然暴露漏洞,而那個國家早就知道了,而你只有等著被黑。
因此,開源真正吸引人的一點是可“蒸餾”。多數人,不會直接拿Llama原模型去跑,而是微調或蒸餾成小模型,對Behemoth級別的巨大模型來說,尤其如此。
從高IQ大模型,蒸餾到小模型,保留90-95%的智能,規模和成本卻只是 10%,這對很多場景早就足夠,而且十分劃算。
更妙的是,如今開源社區百花齊放,可以蒸餾的模型不只 Llama。
一種做法是:Llama 在多模態、推理效率等方面非常強,而另一款模型在代碼生成上表現更好,你完全可以把二者一起蒸餾,為自己的應用場景打造一個綜合表現優于任何單一模型的新模型。
不過,這就引出了安全問題:如何確保蒸餾過程本身可靠、可控?
我們投入了大量時間研究,發現凡是涉及語言的,就不可避免地夾帶價值觀。若不想直接繼承源模型的全部價值取向,就不宜把完整的語言世界模型原封不動地蒸餾過來。
對于“可驗證領域”的推理任務,情況要簡單得多——只要把范圍限定在可驗證的題目,再配合代碼整潔度和安全過濾(例如開源的Llama Guard或我們推出的Code Shield工具),就能較好地控制輸入輸出的安全性。
接下來還需要大量red team測試,讓專家持續“挑刺”,確認蒸餾后模型沒有出現不受歡迎的行為。
綜合運用這些手段,我們基本可以在可驗證推理領域實現安全蒸餾。對此我相當有信心,也做了深入研究。
當然,這仍是個大課題,如何在釋放巨大價值的同時,妥善處理潛在偏見與安全隱患。
六、AGI的商業化Monetizing AGI
DP:談到即將釋放的價值value to be unlocked,你認為 AI 最合適的商業化路徑是什么?數字廣告確實很賺錢,但在整體GDP中,只占很小一部分,相比之下,所有遠程工作的生產總值,要大得多。即使只是在不取代崗位的前提下,提升生產率,其價值也可能以數十萬億美元計。
廣告,會不會并非最終答案?你是怎么思考這個問題的?
MZ:正如我們之前討論的,不同應用場景會對應不同的商業模式。
當你想向用戶免費提供服務時,廣告是理想方式。
既然免費,總得有收入來源來覆蓋成本,廣告正好解決了“用戶不用付錢,也能享受極佳體驗”的問題。
而且,如果廣告系統做得好,許多情況下,廣告本身還能提升體驗價值。
要做到這一點,你必須擅長排序,并且擁有足夠多的廣告主。假設系統里只有5個廣告主,再怎么精細排序,也未必能向某位用戶展示他真正感興趣的東西。
可如果有 100 萬個廣告主,再加上優秀的匹配算法,就極有可能挑出“干草堆里的那根針”,正中用戶的需要。
所以廣告,肯定有它的位置。但同時,也會出現成本更高、根本不適合用免費模式來做的業務形態,這種情況一直存在。
為什么社交媒體是免費的、靠廣告支撐,而看Netflix或ESPN,就得付費?因為那類內容,制作本身成本極高,廣告收入無法彌補,用戶就必須掏錢。
結果是規模變小:使用人數從數十億降到數億,這是一種價值取舍。
AI也是類似邏輯,并非所有人都需要一個,或者一千個“軟件工程師代理”。但如果你真有需求,花個幾千、幾萬,甚至幾十萬美元去買,你可能也是愿意的。
這說明,未來會存在一整條多樣化的商業模式光譜,對Meta而言,面向大眾的部分,我們必然提供免費的服務,很大概率依舊是廣告模式。
但我們同樣需要一種能夠支撐“隨意調用大量算力、完成更驚艷任務”的付費方案,也就是付費版或高級版。
總的來說,我們的核心價值觀還是盡可能服務全球最多的人。
七、CEO的角色The role of a CEO
DP:你的公司里有這么多項目,其中一些,我們今天才談到,而我想還有許多,是外界根本不知道的。
作為 CEO,你要統籌一切,介入的深度可以是到Llama 團隊面前說:“這些就是你們該用的超參數”,也可以只是下達一個大方向,比如把 AI 做得更好就行。
項目如此繁雜,你如何判斷自己的價值增量,應體現在哪些方面?又該怎樣高效地管控這一切?
MZ:我的大量時間,都花在招募頂尖人才上。除此之外,還有那些跨團隊協同的部分。
比如Meta AI做出來了,要嵌進WhatsApp或Instagram,就得讓各團隊坐在一起討論。
接著,問題就來了:WhatsApp的Meta AI聊天窗口,是保持與普通 WhatsApp對話一致的界面,還是更像業內常見的AI聊天體驗?
二者各有交互慣例,需要做取舍。
這類如何把新能力融入現有生態的細節,必須逐一厘清。
再往下,是基礎設施的推進。若要搭建吉瓦級算力集群,就對數據中心建設方式、選址州的政策協調、乃至公司財務都有巨大影響。
比如當前全球經濟不確定性這么高,我們是不是仍要加碼基建?如果加碼,還要在公司層面做哪些取舍?這些都是其他角色難以拍板的大決策。
還有品位與質量的把關,比如何時產品足夠成熟、值得上線?
通常我在公司里擔此“品控人”的角色,當然也有不少同事同樣眼光敏銳,負責各自領域的“質量閘門”。
總體來說,大概就是這些核心維度。
AI有一些獨特之處,它比過去許多業務更研究驅動、模型驅動,而非單純產品驅動。
你無法先畫好產品藍圖再硬配模型,相反,需要先確定想要的模型能力,從中觀察涌現出來的特性,隨后再決定能做哪些產品。
歸根結底,用戶只想用到最好的模型。
這也是為什么我們強調打造最個性化的AI、最佳語音交互、最優延遲與智能并存。
為此,我們研發全雙工語音full-duplex voice,也要讓AI擁有持久記憶,并且能接入Meta體系的其他數據。
同時,在模型設計上精確控制規模與時延,以滿足這些體驗需求。
八、Is big tech aligning with Trump?
DP:說到政治,人們覺得一些科技領袖正與Trump走得更近。你和其他人曾向他的就職儀式捐款,還與他同臺。我記得你們還和他達成了一項導致對方獲得2500萬美元的訴訟和解。
我很好奇,這究竟是怎么回事?這是不是與政府打交道必須付出的成本?我們該如何理解這種現象?
MZ:在我看來,他就是美國總統。作為一家美國公司,我們的默認立場就應該是與任何執政政府建立建設性的關系。
我們此前也嘗試過向歷屆政府提供支持,我公開表達過對上一屆政府的一些不滿,比如他們基本不愿與我們或更廣泛的商業界接觸。
坦率說,如果缺乏對話、他們又不把這些事務當成優先事項,我們就不可能在很多事情上取得進展,也無法獲得所需的能源規模。
很多人想用“站隊”來解讀這一切,我能理解,但對我們來說,目標是打造卓越的產品,并與有關方面保持建設性關系,我就是這樣看的。我想大多數人也會這么看,不過我不能替他們發言。
DP:過去在內容審核問題上,你曾談到如何重新思考與政府的互動與讓步。
現在,你如何看待AI治理?如果AI真的如我們想象的那樣強大,政府必定會介入。
最有效的應對方式是什么?政府又該關注什么?
MZ:我過去的評論,多與內容審核相關。過去十年,這真是一段有趣的歷程,也是一個特殊的歷史時期,線上內容管理出現了很多新問題。
其中一些催生了頗具成效的新系統,比如用AI 檢測他國對選舉的干預。我們會繼續完善這些系統,它們總體是正向的。
但也有些做法走了彎路,我認為“事實核查fact-checking”就不如 Community Notes 有效,因為它無法擴展到互聯網規模not an internet-scale solution。
比如核查人員不足not enough fact-checkers,而且大眾不信任特定核查機構。
你需要一個更健全的體系,而 Community Notes 正是更合適的方案。
我想說的是,歷史上我或許過于聽信媒體或政府的批評與意見,而這些領域并非他們真正擁有管轄權的地方。
我們試圖搭建一些系統,讓自己不必獨自承擔所有內容審核決策。過去十年的成長讓我意識到,好吧,我們是一家有影響力的公司,必須對自己的決定負責。應當傾聽各方反饋,但也不能過度依賴那些根本無權做主的人。
因為最終坐在駕駛席上的,是我們自己。這是一次成熟的過程,有時也伴隨痛苦,但我相信公司因而更強大。
DP:關稅,會否推高在美國建設數據中心的成本,進而把建設轉移到歐洲或亞洲?
MZ:很難判斷結果會怎樣,我想現在還只是初局階段,具體走向尚難預料。
DP:在一周里你最具杠桿效應的那一小時single highest-leverage hour in a week,是在做什么?
MZ:我也說不好,每一周都不一樣。
最具杠桿的一件事,往往不會每周都相同,否則按理說你應該每周花超過一小時來做它。
行業高度動態變化,這也是這份工作的樂趣之一。
世界的面貌和今年年初、去年年中,都截然不同。
自上次我們對談以來,大約一年了吧?很多牌面已被翻開,進展巨大。
DP:是的,你之前提到,招募人才是你杠桿最高的事情之一。
MZ:招人確實是非常高杠桿的。
九、100倍生產力
DP:你提到這些模型,到了年底都會成為中級軟件工程師。如果在兩年內,軟件生產力提高 100 倍,會出現什么可能?有哪些現在根本無法打造的東西,屆時能被創造出來?
MZ:這個問題很有意思,我們今天的對話里有一個主題:被釋放的創造力將是巨大的。
回顧過去一兩百年,人類社會與經濟的整體軌跡,就是人們主要從事農業,把大部分精力用于填飽肚子,這部分占比越來越小。滿足基本物質需求所耗費的人類能量,越來越低。
這種轉變帶來兩個結果:第一,更多人開始投身創意和文化領域;第二,人們整體工作時間減少,娛樂和文化活動增多。
我幾乎可以肯定,這一趨勢會持續下去。
短期內,一個擁有超強軟件工程師能力的AI,會帶來什么?從長遠看,如果每個人都擁有超人級工具去創造各種東西,多樣性將空前豐富。
其中一部分,將用于攻克難題,治愈疾病、推進科學、研發改善生活的新技術。
但我猜,相當大一部分會進入文化、社交和娛樂領域。世界會變得更有趣、更古怪、更具特色,就像過去十年互聯網梗文化的發展。
這增添了豐富的層次,從某種角度說,還能幫助人們更好地連接彼此。如今,我整天在網上看有趣內容,然后發到群聊給朋友看。
人們現在能制作的媒體,已足以表達極其細膩、具體的文化意象,這股潮流還會繼續推進。它確實在多方面推動社會進步,即便不是那種“硬科學”式的治病救人。
從社交媒體的視角看,未來人們會花更多時間做這些事,而且體驗會更好、更能促進連接,因為它幫助表達多元觀點。
世界會更復雜,而我們的“文化技術”,比如會用一段幽默小視頻或別的形式表達復雜思想,也會大幅進化,我覺得這很棒。
至于明年會怎樣,有一點值得一提,至少在可預見的未來,這種變革會提升對勞動力的需求,而非減少,人們可以自主選擇工作時間。
舉個我們最近討論的例子,Meta 每天有近 35 億人使用我們的服務,我們長期苦于一個問題:如何提供客戶支持?
現在的用戶可以寫郵件給我們,但是,我們從沒考慮過提供電話支持,作為免費服務,每位用戶帶來的營收,不足以支撐電話客服的成本。
日活35億,意味著海量來電,可能需要世界最大規模的呼叫中心,每年成本100–200億美元,這完全不現實。
然而,隨著AI變強,它將能解決大部分用戶問題。也許十年后,就能處理所有問題。
就算只看3–5年的時間線,它也能解決相當多的問題。就像自動駕駛,能覆蓋很多路況,雖然尚未完全獨立。
有人曾預測,卡車司機會失業,但自從二十年前談論自動駕駛以來,卡車司機的崗位,反而增加了。
回到客服場景,若AI能處理 90%的咨詢,把剩下 10% 分派給人工,再把服務成本降到原來的十分之一,那么電話支持就變得經濟可行。
最終結果可能是,我們反而可以雇更多客服人員。
很多人相信AI會讓工作消失,但歷史從來不是如此簡單。
技術,通常能削減90%的工作量,卻讓崗位需求增加,而不是減少。
DP:最后一個問題:當今世界上,你最常尋求建議的那個人是誰?
MZ:唔,很難說,我的風格是廣泛請教顧問,而不只依賴一個人。
我們有出色的團隊、董事會成員,也有不少在業界做新東西的朋友,我沒有唯一的導師。
但在動態世界里,與志同道合的人一起做很酷的事,這對我來說,就是生活的意義。When the world is dynamic, just having a reason to work with people you like on cool stuff… To me, that's what life is about.
DP:以這個美好的話題收尾吧,感謝你接受我的訪談。
MZ:Yeah,thank you
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.