![]()
「Throw A Stone 投石問溪」:Creekstone 官方播客訪談系列。我們訪談最一線的創業者、最前沿的研究者,和 AI 道路上最有趣深刻的同路人。致力于連接全球頂尖AI研究者與中國創業生態,尋找下一個時代的原生變量。
完整訪談將在小宇宙上線音頻、公眾號上線文字、小紅書上線精彩視頻片段,
歡迎轉載與一切可能的合作,讓我們一起連接思考,探索偉大。
CREEK STONE
過去 3 年的AI圈只有一種味道:暴力。
算力暴力、數據暴力、參數暴力。所有人都在卷同一件事:怎么用更多的資源堆出更強的模型。
Scaling Law成了這個時代的宗教,大力出奇跡仿佛已變成唯一的信仰。
而田淵棟卻選擇了一條更寂寞的路。
作為Meta FAIR曾經的資深首席研究員,LLaMA和OpenGo背后的關鍵推手,
他的研究從破解圍棋的機制到優化大模型的肌理,
做的事情從來只有一件:打開黑箱,找到底層邏輯。
三個月前,他離開了效力十一年的Meta。
我們有幸在春節前在硅谷一起吃飯,深入聊了很久。
聊了他從上海內向少年到硅谷頂級研究員的來時路,聊了大廠組織病變的結構性原因,聊了他對Transformer架構根本局限的判斷,聊到了那個讓我們在談話間隙陷入長久沉默的理論——“費米線”。
我們想了解,一個頂級頭腦在奇點臨近時,對人類命運最誠實的思考。這份思維之美,讓我們懇切邀請田老師做一次專訪,作為Creekstone 投石問溪深度訪談內容的開篇,讓更多人一起加入面向未來之旅,希望給想要探索創業的伙伴,一些真知灼見。
在進入完整對話前,我們提煉了對話中
田老師的5個核心判斷:
1、AI正在劃定一條不斷上移的“費米線”:線下的重復性技能因無限供給而價值歸零,唯有具備獨一無二創造力、能解決深層難題的人,才能在未來幸存。
2、硅谷巨頭正陷入嚴重的“組織病變”:層層過濾的匯報機制讓高層對真實技術進度一無所知,激進的目標最終只能靠底層的“Hack”和泡沫來維持。
3、Transformer架構已近十年未變,修修補補沒有意義;算法的進化不存在中間狀態,線性注意力無法替代全注意力,下一代架構必須是徹底的推倒重來。
4、在Scaling Law成為宗教的時代,盲目堆砌算力是一種偷懶;真正的突破在于“打開黑箱”,搞清楚智能涌現背后的物理機制和底層邏輯。
5、現有的梯度下降和概率預測模型,可能永遠無法模擬人類的“頓悟”瞬間;要實現真正的人類水平智能,整個訓練算法或許都需要被徹底替換。
以下是我們和田淵棟的完整談話:
人與成長
Creekstone :您能介紹一下自己的成長和職業經歷嗎?
田淵棟:我是上海人,在上海出生長大到二十幾歲。后來去北京有一些實習機會,包括在微軟亞洲研究院,那段經歷讓我看到了更大的天地,萌生了出國的念頭。
2008年去卡內基梅隆大學讀博士,五年后的2013年畢業。畢業后先去了谷歌無人車,待了約一年三個月,之后加入Meta,前后將近11年。這期間做了很多項目:圍棋Bot、用強化學習解決優化問題、打開大模型黑箱、大模型優化與推理、LLaMA相關工作,還有強化學習方面的工作。
Creekstone :您的MBTI是?
田淵棟:可能是INTP或INTJ,最后一個字母不是很確定。我覺得這要看跟誰比,如果跟非常J(判斷型)的人比,我可能是P(感知型);但如果跟比較P的人比,我又有可能是J。
不過,我確定是I(內向型),因為我確實能夠在獨處中獲得能量。但I人也可以偽裝成E人(外向型)。在過去十幾年的學術和博士階段的鍛煉中,我慢慢掌握了這種方法,也發現了和別人交流的樂趣。其實在2008年之前,我應該是一個完全的I人,非常內向,不太愿意說話。
Creekstone :中美兩種學術科研環境,對您的性格塑造有什么影響?
田淵棟:中國的環境相對來說二元化比較嚴重。從小到大,作為“好學生”,大家會有意無意地給自己貼上標簽,認為好學生就應該少說話,好好做題,把事情做完,不要聲張。環境會把人清晰地分為兩類:要么是能說會道的sales,要么是埋頭干活的工程師。
來到美國后,我發現情況很不一樣。很多人可以同時具備I和E的特質,他們既愿意表達,也能靜下心來把事情做好。這也讓我的個人特質有了一次積極的升級。
另外,中國的環境里“negative reward”(負向激勵)特別多,而“positive reward”(正向激勵)很少。這樣的環境不太鼓勵探索,因為到處都是限制,似乎只有一條路是正確的。而在一個更多元化的環境里,你會發現各種各樣的正向激勵,周圍的人更多地在鼓勵你,負面信息更少,焦慮感也隨之降低。
硅谷里有很多這樣"看起來不知道害怕"的人,愿意做瘋狂的事,大部分失敗,但總有一兩個成功了成為leader。
Creekstone:您最喜歡的電影跟書籍是什么?
田淵棟:《三體》對我來說是一個非常震撼的作品,特別是讀完第二部之后,那種世界觀被顛覆的感覺非常美妙。當時我做的一個圍棋BOT,也是以第二部的書名“黑暗森林”命名的。其它的科幻比如說《深淵上的火》,《最后的問題》,《光明王》,奇幻也會看,像著名的《冰與火之歌》,也會看一些國產的奇幻,比如說《歷史的塵埃》,《無限恐怖》,《詭秘之主》,《道詭異仙》。
電影方面,我可能動漫看得更多一些,比如《攻殼機動隊》,它的很多想法和理念非常超前且有意思。還有一部比較老的經典動漫叫《反叛的魯路修》,里面的人物塑造和劇情編排都非常有趣,我也很推薦。
Creekstone:有什么事情是像《三體》第二部那樣,最改變您個人世界觀的經歷嗎?
田淵棟:其實就是前面提到的,從一個I人變成更偏E人的狀態,這可以說是我世界觀改變的一個入口。我以前非常內向,很難與人交流,甚至上臺講話會緊張到說不出話。但當我在臺上演講一兩次,發現自己的東西被大家欣賞之后,就慢慢打開了心態,獲得了表達的動力。這個轉變讓我的人生往上走了一層,我學會了如何表達自己,如何讓想法被別人接受和理解。現在回頭看,如果一直只是埋頭苦干但不愿交流,可能未來的上限也不會太高。
Creekstone :文學創作會被AI取代嗎?未來幾年,文學創作本身可能發生什么樣的演變?
田淵棟:文學作品永遠存在,因為它的動因是"人想要表達,有感動的瞬間愿意寫下來,愿意傳遞給別人"。這部分是AI無法取代的。
就算AI寫了一模一樣的章節,但沒有一個真實的人站在那里感動,這個章節是沒有意義的。 作品的緣起,你為什么寫這部小說、里面的角色和你有什么關系、這些人的選擇讓你覺得人生有什么意義,這些東西立好了,AI幫你完善細節是完全不同的事情。
打開黑箱,理解本質
Creekstone :您做過Computer Vision、強化學習、大模型,這條路背后有沒有一個貫穿始終的底層驅動力?
田淵棟:打開黑箱,發現具體的底層機制,這是我最大的動力。當然,這個動力隱藏在許多具體項目里。你不可能只做純理論研究,那可能就變成數學家了,不一定有飯吃。所以必須找到現實世界的支點,把想法和思路貫徹到重要的實際項目中去。
比如當時做OpenGo(一個復現AlphaZero圍棋AI的開源項目),主要動因就是看到AlphaZero能"左腳踩右腳"一樣,完全不依賴人類棋譜實現自我提升。我很好奇它是怎么做到的?有什么弱點?于是我們復現了整個分布式系統,想理解一個自對弈的強化學習系統是如何慢慢變強的。這個過程本身就是由開源和打開黑箱的精神驅動的。
之后很多項目也是如此。我們去研究自監督學習(Self-supervised Learning)的表征是如何學出來的?它的動力學是怎樣的?什么時候會塌縮?現在到了大語言模型,我們想知道Attention機制在做什么?FFN層(前饋神經網絡層)在做什么?"涌現"(Emergence)現象是如何發生的?
當我們對底層機制有了理解,就可以在上面做應用。比如發現Attention是稀疏的,就思考能否利用這一點。于是把中間不重要的部分去掉,發現系統依然能很好運作,這便促成了"Attention Sink"(注意力匯聚現象)的工作。再比如對長文本的分析,啟發我們思考如何將模型的上下文窗口變長且保持穩定,從而產生了關于長度內插(Length Interpolation)的研究。基本上我所有的研究都是這樣產生的。
Creekstone :在這個追求白盒化、可解釋性的過程中,您在硅谷是否感到孤獨?尤其是在scaling-law(規模法則)成為主流,大量算力和人才都投入到“暴力求解”的狀態下,您在資源和個人感受上會覺得受限嗎?
田淵棟:沒什么感覺。就像前面說的,我是個I人,能從獨處中獲得能量。所以即使沒人理我,也不是很在意。研究過程中自己發現一些有意思的東西,本身就是一個自我成就的過程。
如果太怕孤獨,反而會去追熱點,研究就會沒有章法。但也不能走向另一個極端,完全isolated,那可能會被時代拋棄。學術界有很多人在大模型來了之后,發現自己那套東西完全失效了,職業發展也就出了問題。所以,追一定程度的大趨勢,也是對群體智慧的尊重。
Creekstone :在開發OpenGo和Llama的時候,您遇到過哪些“科學 vs. 工程”的權衡?在Transformer快速進化的過程中,很多問題似乎在工程層面就解決了,但您的研究又非常強調第一性原理和數學理解。您是如何平衡這兩者的?
田淵棟:方法很簡單:把工程問題數學化。工程問題系統化、數學化之后,它就變成了一個可建模的數學問題,自然就可以用科學方法去做。例如,我們曾用強化學習去解決一些優化求解問題,比如如何拓展蒙特卡洛樹搜索(MCTS)去處理更難的現實問題,像黑盒優化、神經網絡架構搜索(NAS)等。
當然,大模型時代,因為工程周期很緊,很多時候也比較“hacky”,能跑就行,很難做得非常細致。但只要在某些地方有一些理論或思想上的亮點,其實也就足夠了。
大廠圍城與人性的價值
Creekstone :您在CMU、谷歌,Meta FAIR這些普遍推崇實戰文化的環境中,產生過哪些觀察?
田淵棟:2022年之前,Meta FAIR還是一個非常好的地方。相對自由,上層干涉不多。大模型來了之后,逐漸變成了一個搶占資源的游戲,一共就這么多卡,誰卡多誰模型就好,政治斗爭和相互摩擦不斷。
其實到2023年的時候,我就有過離開的想法,覺得再待在大廠意義不大了。后來因為推理模型這一波趨勢,我們團隊又被重視起來,所以又待了一陣子,但最終還是走了。
現在的大廠不是一個特別好的地方,變化非常劇烈。2024年10月底開始,很多大廠的人來找我。有意思的是,找過我的那些人,現在基本上都離職了——Anthropic那邊找我的人走了,Amazon給我offer的VP走了,Apple的那個負責人走了,xAI的Tony來找我、給了offer,他也走了。
這其實側面說明,整個大廠的節奏讓人很難真正做自己想做的事情。以前一個VP可以穩定地做三四年,把事情慢慢做好。現在,你可能坐上這個位置,兩三個月內就必須拿出成果。這種巨大的壓力會層層傳導,如果做不出來,人就得走。
Creekstone:這種快速變化和巨額資源投入,在大廠中產生了哪些共性的組織或人才問題?團隊的關注點和組織形式發生了哪些變化?
田淵棟:一個主要的變化是,公司對于長期研究部門的支持減弱了。因為長期研究的代價太大,而且在激烈的追趕中,公司需要把100%的精力都花在提升大模型上,否則就可能落后。大家都覺得智能在加速發展,一旦落后,可能就永遠追不上了。這種焦慮感導致了幾個后果:一是所有資源都用于追趕,沒人有耐心真正投入研究;二是因為賭注巨大,內部爭斗加劇,大家都想成為那個能把事情做成的人。
大廠的另一個問題是人太多,導致信息傳遞效率低下。信息經過多層VP傳遞,每一層都會“報喜不報憂”。等消息傳到最高層,壞消息早就被過濾掉了,他們聽到的永遠是好消息。這導致上層對真實情況一無所知,從而制定出非常激進的進度要求。壓力壓下來,下面的人要么選擇“hack”的方式應付,要么牛皮吹破,最后爆炸。除非下面的人有膽量向上“push back”,并且上面的人愿意聽,這個組織才能維持通暢的信息交流。
這不是哪個人的問題,完全是組織架構的問題。
Creekstone :AI接近奇點的背景下,您怎么看人性的價值與延續?
田淵棟:我很早就想過這些問題。2023年大模型剛出來的時候,我在知乎寫過:獨一無二是最重要的。你的目標、理想、追求跟別人不同,別人才覺得你這個人有價值。
現在AI coding已經做得很好了,執行層面在被極大壓縮。所有人都能實現想法,不意味著都能做得很好。做100個淺的項目不如一個做得很深。有品味、有堅持、能把難的問題真正解決,這樣的人才能脫穎而出。
我在2026年初提出了一個"費米線"的概念:AI能力線以下的人基本沒有價值,因為AI無限供給,價格趨近于零;而能超越這條線的人越來越少,價值會非常大。這條線會隨著AI變強不斷上移。
你要做自己真正熱愛的事,這樣上限才足夠高,才有機會爬到比AI更強的那條路上。如果做自己不太想做的事,上限不高,就會被取代。
智能的本質與未來
Creekstone :很多人認為,Transformer機制本質上是一種極致的壓縮,是在信息維度和時間維度上不斷擴展。在這樣的框架下,創造力和共情能否被真正地量化、數字化和參數化?
田淵棟:創造力在某種程度上是可以被量化的,但不同層次的創新,其難度完全不同。簡單的創新,比如將一個工具用到新的相似場景,大模型可以做到。但更高級的創新發生在更抽象的概念層面,如果大模型對概念本身沒有完全理解,它的遷移能力就會很弱。
斯坦福有篇AI Scientist的paper發現,AI產生的想法在新穎性上甚至被認為超過了人類。這是因為AI在思考時無所顧忌,可以"瞎搞",把任何兩個看似無關的概念放在一起。人一看,覺得很新奇。但實際執行時會發現,這些概念雖然新,但可能并沒有本質的聯系。而人類研究者因為對問題有更深入的理解,能看到事物之間真正的內在聯系,從而實現更有意義的創新。所以,AI和人的創新各有側重點,很難說誰比誰更有創造力。
Transformer架構已經快十年了,無數人在修改,但基本結構沒有根本變化。我的判斷是:算法要么沒變,要么大變,很難有中間狀態。
Creekstone:這是否意味著,當前大模型的推理能力,如果只是概率路徑上的滑行和線性外推,就缺乏了因果層面或更高抽象層級的關鍵指導?
田淵棟:這代框架也許依然有效,只要數據足夠多。但我相信,人在同樣的數據下能做出更深刻的理解。一個人類專家可能只需要兩三個樣本,就能一眼看出問題的關鍵。在這方面,AI的能力還遠遠落后于人。
Creekstone:Yann LeCun推廣的World Model(世界模型)框架,能否解決我們討論的這些問題?
田淵棟:我覺得還沒有到那個層次。它本質上還是基于梯度下降的訓練,其損失函數的設計,甚至可以追溯到我2021年的一篇論文中的想法(在2021年的主要研究中,田淵棟老師通過分析梯度下降在網絡參數上的動力學行為,設計出更具數學解釋性、理論完備的損失函數,并把這些深層表征抽取的能力應用到了強化學習的世界模型構建上,讓模型學會“去粗取精”)。我始終覺得,如果要達到人類水平的智能,可能整個訓練算法都需要被替換掉。
Creekstone:您怎么看線性注意力和Test-Time Training這個方向?
田淵棟:現在確實有很多關于線性注意力的工作,其本質是把過去的歷史壓縮到一個固定長度的向量或矩陣中,并隨時間迭代。這可以看作一個動態調整的聯想記憶(Associative Memory)。
但我對此有一個疑問:這套方案的上界可能并不高。因為人類在學習時,存在一個從“記憶”到“理解”的突變,一個“頓悟”的過程。我們會模糊掉具體的事件細節,但留下對問題大概的思路和理解,正所謂“讀書不求甚解,觀其大略”。目前的線性注意力模型,似乎無法建模這一層,它們更多停留在對事實的記憶,而這些記憶還會隨時間流逝。這就是為什么線性注意力雖然被提出了很多年,但始終無法完全替代全注意力(Full Attention)機制成為主流。
對于一些需要復雜多跳推理的任務,全注意力機制至關重要,因為它保留了過去所有的鍵值(KV cache),可以隨時精確地提取任何信息。所以,不存在一個能在所有任務上都表現最好的方法,不同的架構適用于不同的任務。
Creekstone:在設計新架構時,您會如何考慮底層硬件的特性?
田淵棟:硬件的協同設計非常重要。未來的趨勢是推理會消耗越來越大的計算資源,尤其是在Agent需要大量、長序列推理的場景下。如何提升推理效率是一個核心問題。像Grok這樣的新架構,通過將SRAM和計算單元更緊密地耦合在一起,大幅提升了速度。關鍵在于如何解耦計算與內存IO之間的關系。英偉達自己也在做這樣的事情,他們希望在別人革自己的命之前,先革掉自己的命。
Creekstone:我們來談談Memory。無論是持續學習還是自進化Agent,Memory都至關重要。但神經網絡存在“災難性遺忘”的問題。您對解決這個問題有什么新的洞察嗎?
田淵棟:Memory可以分為不同層次,有慢的,有快的。比如模型的權重本身就是一種慢速記憶,而上下文窗口(Context Window)是快速記憶。現在有很多關于可解釋性的研究,試圖理解參數空間的分層。比如,底層網絡負責編碼簡單的語義信息,中層負責更復雜的語義概念(這也是模型編輯常操作的層次),高層則負責將語義信息解碼為下一個詞。將這些關于可解釋性的理解與持續學習結合起來,可能會是一個非常有意思的新方向。
Creekstone:從OpenClaw提出的三層記憶結構,到各種Agent框架,您如何從第一性原理理解Memory的設計?
田淵棟:對于一個要走向實用的Agent框架,其記憶系統設計需要兼顧效率和效果。例如,可以采用兩層記憶結構:一層是基于關鍵詞匹配的快速檢索,另一層是基于向量語義的精確檢索。這兩者各有長處,結合起來能讓Agent既能快速響應,又能記起很久以前的事情,給人一種非常人性化的感覺。
而像文件系統這樣的結構化記憶,可以看作是一種“工具使用”(Tool Use)。Agent動態地組織和調用這些“工具”,將最相關的信息放入上下文窗口中,從而解決更復雜的問題。無論是層級化的、圖狀的還是其他形式的記憶結構,本質上都可以歸為工具使用的一部分。
Creekstone:您怎么看待現在的Agent框架,比如OpenClaw等?它們在多大程度上實現了跨session的持續進化?
田淵棟:將蒙特卡洛樹搜索(MCTS)和強化學習結合,肯定是一個更深層次的自進化方向。但這里有一個權衡:如果你從一個效果很差的基線模型開始做強化學習,所花費的時間和代價,會遠遠高于從一個已經不錯的基線模型出發。所以,工程上的方案和更根本的自進化探索,兩邊都需要兼顧。
Creekstone:您自己會使用OpenClaw這樣的Agent產品嗎?
田淵棟:我嘗試安裝過,但后來放棄了。我主要的擔憂是安全問題。把所有的API Key和權限都交給一個Agent,就像“小兒持千金于鬧市”。這個“小孩”很能干,但他也掌握了你家里所有的鑰匙和密碼。他可能會被花言巧語所欺騙,在99次拒絕誘惑后,有一次沒能拒絕,你的信息就可能被泄露。網上已經出現了很多類似的案例。
我更傾向于自己寫代碼。現在的AI編碼能力很強,我可以學習這些開源項目的設計思想,然后用AI輔助自己構建一個更可控的系統。另外,很多Agent的Skills(技能)是第三方編寫的,這些技能里可能隱藏著惡意代碼,就像給小孩看的卡片里夾帶了危險信息。所以,在安全問題得到保障之前,我對此還是持謹慎態度。
開源的價值、AGI的瞬間與未來的展望
Creekstone:隨著Meta內部的一些變化,以及像林俊旸等核心人物的離開,您怎么看開源在AI持續進化中扮演的角色和價值?我們是否已經身處一個節點,開源能帶來的東西已經發生了潛移默化的變化?
田淵棟:開源應該是一種態度,而不一定總是一個公司的策略。公司在不同時期,策略是會變化的。Meta之前選擇開源,是因為它的開源模型是最好的,通過這種方式可以吸引頂尖人才,再用這些人才來做下一代更好的模型。這是一個良性循環。但如果公司策略改變,從開源轉向閉源,也無可厚非。
從我個人角度,我始終認為開源對整個社會是有好處的。它能讓大家追趕上最新的技術,創造一個更平等、更多樣化的環境,共同建設整個大模型生態的進步。對于一項如此強大的新生技術,如果只被少數人掌握,那將是一個比較糟糕的未來。幸運的是,目前這種情況沒有發生。開源模型在其中起到了巨大的作用,它通過緊追閉源模型的步伐,為市場提供了選擇。很多任務并不需要最頂尖的模型,用一個足夠好的開源模型就能以很小的代價解決,這極大地緩解了整個社會的焦慮。
Creekstone:在您的實踐中,有沒有哪個“奇點時刻”讓您覺得AGI離我們如此之近,甚至帶來一絲恐懼感?
田淵棟:恐懼感倒不至于,但我確實感受到了工作流的根本性變化。比如最近使用AI編碼工具,我發現整個工作方式都不同了。以前可能還需要在IDE(集成開發環境)里寫代碼,但現在,我幾乎可以直接在命令行里用自然語言告訴AI要做什么。這個變化就發生在近兩三個月內,讓我覺得進步的速度非常驚人。
這和當年看AlphaGo下棋的感覺完全不同。AlphaGo的比賽,我們關掉電視,生活照舊。但現在,AI已經深入到我們每天的工作流和思維方式中,這才是真正深刻的變革。
Creekstone:您個人的“北極星”是什么?希望在退休時,大家會如何定義您?
田淵棟:我當然最希望成為一個發現了大模型法則的科學家。寫作是我的一個業余愛好,我希望能發表一些好的小說,但可能沒有那么多時間。我成不了一個偉大的小說家,但作為業余愛好玩一下也很好。
Creekstone:對于中國的開發者和年輕創業者,您有什么寄語?
田淵棟:我覺得現在是一個非常好的時代,特別是對于年輕人。一畢業就能遇到一個可以充分發揮自己能力的時代,這絕對是“千年未有之大變局”。所以,一定要珍惜這個時間,做一些自己真正想做的事情,做出讓大家覺得“這個東西做得很好”的產品。
Creekstone視角|
這場對話給我們留下了什么
這場對話結束后,我們在會議室里又坐了很久。
田淵棟的很多判斷,和我們自己的投資邏輯高度共振——但他給出了更底層的物理解釋。
我們想說幾件我們認為重要的事:
關于"想得深"vs"做得快"
整個AI創投圈都在獎勵速度。快速出產品、快速試錯、快速融資。
但田淵棟的路徑提醒了我們:最持久的壁壘,來自對問題的深度理解,而不是執行速度。OpenGo能做出來,不是因為他們跑得最快,是源于他們真正理解了AlphaZero在做什么。
我們在看項目時,越來越關注一個問題:"這個創始人,比他的競爭對手多理解了什么?"
"快了多少"遠遠沒有"深了多少"來的重要。
關于組織規模與信息保真
田淵棟給了一個非常清晰的機制解釋:層級是信息的天然過濾器,每多一層,真實信號就衰減一次。
小團隊的核心競爭力不再是人效,是Context保真度。
組織即Agent,人是Sensor——Sensor越少越精準,信號越強越直接。
關于費米線
這是這場對話里最讓我們沉默的一個判斷。
"費米線以下,AI無限供給,價格趨近于零。"這是一個關于價值分配的物理定律,不是勵志故事。
我們不投"費米線附近"的創業者——不是因為他們不努力,而是因為那個區間的競爭最激烈、護城河最薄、被取代風險最高。
我們只投那些清楚知道自己的"熱愛上限"在哪里,并且在拼命往上爬的探索者。
關于真實的人類連接,是最后的護城河
原因不是 AI 寫不了,而是因為沒有真實的人在那里感動,寫出來的東西就沒有意義。
表達的沖動、感動的瞬間、想要傳遞給別人的欲望——這些是 AI 永遠無法偽造的起點。
這也是為什么我們相信:垂直深度、獨特品味、真實的人類連接,是創業者最后的護城河。 不要做"AI能做的事",做"只有你能做的事"。
采訪、編輯
Creekstone Venture
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.