![]()
DeepSeek讓美國多位教授開始“反思”?
科技旋渦編輯部
在過去幾周里,美國科技界對 DeepSeek 的討論異常熱烈,焦點集中在芯片供應和技術壁壘上。人們紛紛猜測,DeepSeek 到底囤積了多少芯片,又通過哪些手段繞過了美國的出口管制?這些討論不僅反映了美國對自身技術領先地位的擔憂,也揭示了其長期以來依賴封閉技術和出口控制的戰(zhàn)略局限性。
美國斯坦福大學以人為本人工智能研究所(HAI)的多個教員們在一起探討發(fā)表了DeepSeek 模型的技術進步,還深入分析了其對全球學術界、工業(yè)界和社會更廣泛的影響。
討論的核心在于DeepSeek如何挑戰(zhàn)了關于實現(xiàn)AI重大進展所需的資金和計算資源的傳統(tǒng)觀念。DeepSeek展示的聰明工程和算法創(chuàng)新表明,即使是資源較少的組織也能在有意義的項目上競爭。這種巧妙的設計,加上開源權重和技術細節(jié)論文,營造了一個數(shù)十年來推動技術進步的開放創(chuàng)新環(huán)境。
DeepSeek重新點燃了關于開源、法律責任、地緣政治力量轉移、隱私問題等方面的討論。在這組觀點中,斯坦福HAI的高級研究員提供了一個多學科視角,探討DeepSeek對于人工智能領域及整個社會的意義。值得注意的是,多位教授指出,美國長期以來依賴封閉技術和出口控制的戰(zhàn)略正在面臨前所未有的挑戰(zhàn)。DeepSeek的成功不僅展示了中國公司在技術創(chuàng)新方面的實力,也揭示了美國科技界的脆弱性和焦慮感。
Russ Altman等多位教授從不同角度探討了DeepSeek帶來的機遇與挑戰(zhàn),包括開源共享理念的重要性、算法創(chuàng)新的價值、以及如何平衡數(shù)據(jù)獲取中的版權和其他知識產(chǎn)權問題。此外,Michele Elam教授特別指出DeepSeek在隱私保護、數(shù)據(jù)來源和版權方面的模糊性對藝術領域的深遠影響,并呼吁關注這一技術對我們認知現(xiàn)實世界方式的塑造作用。這些討論揭示了技術進步與實際社會影響之間存在的脫節(jié),這是該領域目前最緊迫的挑戰(zhàn)之一。
Russ Altman 的評論
Russ Altman 是 Kenneth Fong 教授、生物工程教授、遺傳學教授、醫(yī)學教授、生物醫(yī)學數(shù)據(jù)科學教授,同時也是斯坦福 HAI 的高級研究員和計算機科學教授(兼任)
首先,對開源的承諾(Meta和DeepSeek都采納)似乎超越了地緣政治界限——DeepSeek和Llama(來自Meta)為學者們提供了一個從獨立角度檢查、評估、改進現(xiàn)有方法的機會。“閉源”運動在證明其合理性方面面臨一些挑戰(zhàn)。當然,仍然存在合理的擔憂(例如,不良行為者使用開源模型做壞事),但這些擔憂最好通過開放訪問這些行為者使用的工具來應對,這樣學術界、工業(yè)界和政府可以合作創(chuàng)新,減輕風險。
其次,聰明的工程設計和算法創(chuàng)新能夠降低嚴肅AI系統(tǒng)的資本要求,這意味著資金較少的學術努力(以及其他領域)可以在某些系統(tǒng)構建中競爭并作出貢獻。許多人認為我們需要等到下一代廉價AI硬件才能實現(xiàn)AI民主化,這可能仍然是正確的。但在那之前,我們已經(jīng)意外地發(fā)現(xiàn)軟件創(chuàng)新也可以成為效率提升和成本降低的重要來源。結合起來,我們現(xiàn)在可以想象由資源相對有限的組織構建出非平凡且相關的現(xiàn)實世界AI系統(tǒng)。
第三,DeepSeek的進步加上基于代理的AI系統(tǒng)的進步使得更容易想象創(chuàng)建專門的AI代理,并將它們混合搭配以創(chuàng)建有能力的AI系統(tǒng)。單體“通用AI”可能仍然是學術興趣所在,但從成本效益和更好的工程角度來看(例如模塊化),創(chuàng)建由可分別構建、測試、維護和部署的組件組成的系統(tǒng)更為合適。AI代理之間以及與人類的合作模式復制了解決問題的人類“團隊”的概念。有時問題可以通過單一的整體天才解決,但這通常不是最好的策略。因此,DeepSeek通過驗證開源共享想法(數(shù)據(jù)是另一回事)、展示持續(xù)算法創(chuàng)新的力量以及使經(jīng)濟上創(chuàng)建AI代理成為可能來幫助恢復平衡,這些代理可以經(jīng)濟地組合在一起,生成有用且強大的AI系統(tǒng)。當然,仍有問題需要回答:
● 如何在尊重版權和其他知識產(chǎn)權的同時,民主化獲取構建模型所需的大數(shù)據(jù)?
● 當某些專業(yè)學科的數(shù)據(jù)量不足時,我們?nèi)绾螛嫿▽I(yè)化模型?
● 如何評估一個使用多個AI代理的系統(tǒng)以確保其正常運行?即使單個代理已驗證,是否意味著它們組合后也有效?
Yejin Choi 的評論
Yejin Choi 是 Dieter Schwartz Foundation HAI 教授、計算機科學教授以及斯坦福 HAI 的高級研究員
DeepSeek R1模型的成功表明,當有一個“解決方案存在的證明”(如OpenAI的o1所示),其他人找到解決方案只是時間問題。DeepSeek決定分享R1訓練的詳細方案和不同大小的開源權重模型具有深遠的影響,因為這將進一步加速進展——我們將見證新的開源努力不斷復制和增強R1。這種轉變標志著暴力擴展時代的結束,迎來了一個新的階段,該階段專注于通過數(shù)據(jù)合成、新的學習框架和新的推理算法繼續(xù)擴展。
然而,當前的一個重大問題是,如何利用這些強大的人工智能系統(tǒng)來造福全人類。一個模型在數(shù)學基準上的卓越表現(xiàn)并不能立即轉化為解決人類面臨的困難挑戰(zhàn),包括日益加劇的政治緊張局勢、自然災害或持續(xù)傳播的虛假信息。技術能力和實際社會影響之間的脫節(jié)仍然是該領域的最緊迫挑戰(zhàn)之一。
Michele Elam 的評論
Michele Elam 是 William Robertson Coe 人文教授、斯坦福 HAI 的高級研究員和 Bass University 本科教育研究員
面對最近中國發(fā)布的明顯更便宜、計算需求更低、環(huán)境負擔更小的DeepSeek AI聊天機器人,美國的焦慮和困惑之中,很少有人考慮這對AI在藝術領域的影響。事實上,DeepSeek對文學、表演藝術、視覺文化等方面的意義,在國家安全、美國AI行業(yè)的經(jīng)濟貶值以及開源對創(chuàng)新的利弊等看似更高層次的焦慮面前,似乎完全無關緊要。
但實際上,DeepSeek在隱私保護、數(shù)據(jù)來源和版權辯論方面的完全不透明性對藝術領域產(chǎn)生了巨大影響。“不透明”實際上是一個寬容的術語:DeepSeek對這些問題采取了一種“懶得理會”的態(tài)度。不用說,創(chuàng)意產(chǎn)業(yè)中的SAG-AFTRA罷工,《紐約時報》及其他正在進行的訴訟。
在許多方面,DeepSeek能夠逃脫這種公然的敷衍態(tài)度是我們自己的錯。其聊天機器人的流行是對——同時也是利用了——美國消費者自身越來越傾向于忽視這些問題的一種放大反映,而行業(yè)則通過業(yè)務模式積極鼓勵這種傾向,以投資回報率為名轉移我們的注意力。
像TikTok一樣,DeepSeek利用了過去幾年我們在設備上點擊不斷更新、越來越模糊的服務條款時逐漸放棄隱私權的趨勢(通常是為了所謂的神奇營銷委婉語“個性化”)。
可以說,正如許多人已經(jīng)指出的那樣,DeepSeek對私人和敏感數(shù)據(jù)的貪婪消費利用了國家缺乏對AI的任何監(jiān)管(不同于英國和歐盟),并在許多方面使國家處于風險之中,因為我們秉持著“監(jiān)管阻礙創(chuàng)新”的信條。
但是,就藝術而言,我們應該關注DeepSeek通過預先審查、與其民族主義意識形態(tài)的一致性以及我們對其現(xiàn)實建模算法的不知情或無意識同意控制我們想象力鑰匙的方式。斯坦福大學目前通過微軟Azure項目適應了一個“更安全”的DeepSeek版本用于實驗,并警告社區(qū)不要使用商業(yè)版本,因為存在安全和隱私問題。無論如何,DeepSeek的發(fā)布突顯了這項技術巨大的影響力,尤其是在塑造我們體驗現(xiàn)實的方式上——甚至我們所認為的現(xiàn)實本身。正如柏拉圖和亞里士多德關于戲劇和詩歌影響力的早期辯論所暗示的那樣,這也正是藝術的力量所在。
Mykel Kochenderfer 的評論
Mykel Kochenderfer 是斯坦福大學航空航天系副教授和斯坦福 HAI 的高級研究員
人工智能越來越多地被用于支持關鍵安全或高風險場景,從自動駕駛車輛到臨床決策支持。然而,調(diào)和當前AI系統(tǒng)的不可解釋性與高風險應用中的安全工程標準仍然是一個挑戰(zhàn)。DeepSeek R1的一個特別引人注目的特點是它在響應復雜查詢時的推理透明度。它提供的詳細程度可以促進審計并幫助建立對其生成內(nèi)容的信任。這種在提問時語言模型提供的透明推理被稱為推理時可解釋性。盡管語言模型的推理時可解釋性仍處于起步階段,需要大量開發(fā)才能成熟,但我們今天看到的小步前進可能會引領未來系統(tǒng)更加安全可靠地輔助人類。
另一個障礙在于將近期人工智能的進展應用于許多應用程序所需的大量數(shù)據(jù)和計算資源。DeepSeek展示了開發(fā)新方法減少對大型數(shù)據(jù)集和重型計算資源依賴的巨大潛力。我希望學術界與工業(yè)界合作能夠加速這些創(chuàng)新。通過創(chuàng)建更高效的算法,我們可以使語言模型在邊緣設備上更加普及,消除對昂貴基礎設施的持續(xù)連接需求。憑借嵌入這些語言模型的大量常識知識,我們可以開發(fā)出更智能、更有用、更具彈性的應用程序——特別是在風險最高的時候尤為重要。
James Landay 的評論
James Landay 是斯坦福大學計算機科學教授、Anand Rajaraman 和 Venky Harinarayan 工程學院教授以及斯坦福 HAI 的聯(lián)合主任
DeepSeek 對該領域來說是一件好事。他們公開了自己的研究成果,模型以開源權重發(fā)布,這意味著其他人可以修改并在自己的服務器上運行它。他們降低了AI的成本,這對推動AI研究和應用的發(fā)展是有益的。對AI最大的批評之一是訓練大型基礎模型和支持這些模型查詢/推理的可持續(xù)性影響。DeepSeek 展示了許多有用的優(yōu)化措施,減少了這兩方面的計算成本。這對整個領域都是有益的,因為其他公司或研究人員可以使用相同的優(yōu)化(它們既在技術報告中記錄,代碼也是開源的)。
“通過技術報告和開源代碼分享創(chuàng)新的做法延續(xù)了過去40年推動計算機科學發(fā)展的開放研究傳統(tǒng)。”
這種通過技術報告和開源代碼分享創(chuàng)新的做法延續(xù)了過去40年推動計算機科學發(fā)展的開放研究傳統(tǒng)。作為研究領域,我們應該歡迎這種類型的工作。它將幫助每個人的工作變得更好。雖然許多美國公司傾向于專有模型,并且在數(shù)據(jù)隱私和安全方面仍存在疑問,但 DeepSeek 的開放方法促進了更廣泛的參與,造福全球AI社區(qū),促進迭代、進步和創(chuàng)新。
Percy Liang 的評論
Percy Liang 是斯坦福大學計算機科學副教授、基礎模型研究中心(CRFM)主任和斯坦福 HAI 的高級研究員
DeepSeek R1 表明先進的AI將廣泛可用,并且難以控制,也沒有國界。這也表明,除了擁有大量的計算資源外,聰明才智和工程設計同樣重要。對于學術界而言,更多強大開源權重模型的可用性是一個福音,因為它允許再現(xiàn)性、隱私保護以及對先進AI內(nèi)部的研究。
Christopher Manning 的評論
Christopher Manning 是斯坦福大學語言學和計算機科學系 Thomas M. Siebel 機器學習教授以及斯坦福 HAI 的副主任
人們將其視為某種突如其來的驚喜,但實際上如果你一直關注開源AI的話,這并不意外。DeepSeek 已經(jīng)公開發(fā)布開源模型和詳細的技術研究報告超過一年。DeepSeek V3的訓練成本在2024年12月公布;R1-Lite-Preview版本在2024年11月發(fā)布。
“長久以來作為一個推進開放科學和工程的開放國家,如今了解現(xiàn)代LLM設計和工程細節(jié)的最佳途徑是閱讀中國公司的詳盡技術報告,這是一種可悲的狀態(tài)。”
這次發(fā)布表明,所謂的美國“前沿”AI公司并沒有巨大的技術護城河。現(xiàn)在有許多優(yōu)秀的中國大型語言模型(LLMs)。最多這些公司領先六個月,也許只有OpenAI真正領先。長久以來作為一個推進開放科學和工程的開放國家,如今了解現(xiàn)代LLM設計和工程細節(jié)的最佳途徑是閱讀中國公司的詳盡技術報告,這是一種可悲的狀態(tài)。
DeepSeek 進行了一些非常好的數(shù)據(jù)工程,最小化了數(shù)據(jù)流并允許在fp8下進行高效穩(wěn)定的訓練。他們在技術上有適度的進步,使用了一種獨特的多頭潛在注意力形式、混合專家系統(tǒng)中的大量專家,以及他們自己簡單高效的強化學習(RL)形式,這與一些人偏好基于規(guī)則的獎勵方式不同。但這并不是完全下一代的技術。DeepSeek 使用的方法和模型與其他公司相似,Deepseek-R1 在迅速趕上并提供類似 OpenAI o1 質(zhì)量的產(chǎn)品方面取得了突破。這不是一種新的能力突破。
然而,DeepSeek-R1 的發(fā)布確實顯著推進了開源LLM的前沿,并表明美國無法遏制強大的開源LLM的發(fā)展。這也可能意味著更多的美國公司將開始在其產(chǎn)品中使用中國的LLM,而在此之前,他們通常避免使用這些模型,更傾向于使用Meta的Llama模型或其他來自Databricks等公司的模型。
Julian Nyarko 的評論
Julian Nyarko 是斯坦福法學院教授和斯坦福 HAI 的副主任
大型語言模型(LLMs)是一種“通用技術”,用于許多領域。有些公司創(chuàng)建這些模型,而其他公司則將其用于特定目的。當前的一個關鍵辯論是誰應對有害模型行為負責——是開發(fā)這些模型的開發(fā)者還是使用這些模型的組織。在這種背景下,由中國初創(chuàng)公司開發(fā)的 DeepSeek 新模型突顯了AI開發(fā)的全球性質(zhì)如何使監(jiān)管響應復雜化,特別是在不同國家有不同的法律規(guī)范和文化理解的情況下。雖然出口管制被認為是一個重要的工具,以確保領先的AI實現(xiàn)符合我們的法律和價值體系,但 DeepSeek 的成功凸顯了當競爭國家能夠獨立開發(fā)和發(fā)布最先進的模型時,這類措施的局限性。DeepSeek 開源發(fā)布的性質(zhì)進一步復雜化了法律責任的問題。由于模型可以自由獲取、修改和部署,認為模型開發(fā)者能夠并且將會有效解決其模型帶來的風險的想法可能會變得越來越不現(xiàn)實。相反,監(jiān)管的重點可能需要轉向模型使用的下游后果——可能將更多的責任放在那些部署模型的人身上。
Amy Zegart 的評論
Amy Zegart 是胡佛研究所 Morris Arnold 和 Nona Jean Cox 高級研究員、弗里曼·斯波格利國際問題研究所高級研究員、斯坦福 HAI 教授(兼任)以及政治學教授(兼任)
過去幾周,關于 DeepSeek 的討論集中在芯片和護城河上。DeepSeek 究竟囤積、走私或創(chuàng)新了多少以繞過美國的出口控制?鑒于 DeepSeek 的進步,研究人員現(xiàn)在需要多少以及什么樣的芯片來在前沿領域進行創(chuàng)新?像 OpenAI 這樣的美國超大規(guī)模公司最終是否花費了數(shù)十億美元建立競爭護城河或僅僅是一個提供虛假安全感的馬其諾防線?這些都是重要的問題,但答案需要時間。
“上個月撰寫突破性 R1 論文的200名工程師中,幾乎全部在中國大學接受教育,大約一半的人只在中國學習和工作過。這對美國政策制定者來說應該是一個警示。”
然而,三個嚴重的地緣政治影響已經(jīng)顯而易見:
1. 本土人才的成功:DeepSeek 成功利用了本土人才。上個月撰寫突破性 R1 論文的200名工程師中,幾乎全部在中國大學接受教育,大約一半的人只在中國學習和工作過。這對美國政策制定者來說應該是一個警示。在科技時代,人才是國家力量的重要來源。“美國吸引全球最優(yōu)秀人才”的口號雖然常被提及,但越來越不準確。中國及其他地區(qū)高等教育水平的提升和高等教育機構的顯著改進正在重新繪制知識權力地圖。與此同時,美國的 K-12 教育系統(tǒng)處于混亂狀態(tài),美國15歲學生在最近一次國際測試中的數(shù)學成績排名第34位,落后于斯洛文尼亞和越南。
2. 模仿美國大學而非企業(yè):DeepSeek 模仿的是美國的大學,而不是企業(yè)。這家初創(chuàng)公司雇傭了年輕的工程師,而不是經(jīng)驗豐富的行業(yè)老手,并給予他們自由和資源去做“瘋狂科學”,旨在長期發(fā)現(xiàn),而不是為下一季度的產(chǎn)品開發(fā)。商業(yè)化是創(chuàng)新的重要組成部分,但突破往往始于沒有明確產(chǎn)品或利潤目標的基礎研究。這種基礎研究是大學的生命線,幾十年來一直是美國創(chuàng)新領導地位的支柱,催生了從立方衛(wèi)星到 COVID-19 疫苗的一切。然而,今天中國在基礎研究上的投資速度是美國政府的六倍,如果當前趨勢繼續(xù)下去,中國將在十年內(nèi)超過美國。這是一個至關重要的長期創(chuàng)新戰(zhàn)場,而美國正在放棄它。
3. 市場動蕩:DeepSeek 的宣布擾亂了美國市場,導致納斯達克綜合指數(shù)下跌3%,英偉達股價下跌17%,抹去了6000億美元的價值。這是美國歷史上單日最大的公司損失,這一數(shù)字相當于美國年度國防預算的65%。今天的意外后果可能是明天的故意行為。想象一下,一個對手故意宣布一項真實或欺詐性的技術進步,以懲罰特定公司或動搖另一個國家的資本市場。這種灰色地帶經(jīng)濟武器可以精確打擊或造成巨大影響,可能難以甚至無法歸因于刻意活動。而且它在沒有預警的情況下效果最佳。
DeepSeek 不僅僅是發(fā)布了新的 AI 進展;它揭示了一個新興的地緣政治時代的輪廓,這個時代有新的國家力量來源和新的戰(zhàn)場。
結語
DeepSeek 的發(fā)布不僅展示了中國在人工智能領域的強勁崛起,也引發(fā)了全球對開源、法律責任、地緣政治力量轉移及隱私問題的重新思考。斯坦福大學專家們的多學科視角揭示了美國長期以來依賴封閉技術和出口控制的戰(zhàn)略正在面臨挑戰(zhàn)。與此同時,DeepSeek 的成功凸顯了開放創(chuàng)新模式的優(yōu)勢和潛力,但也暴露了其在隱私保護和數(shù)據(jù)透明性方面的不足。
這種技術與政策層面的雙重探討,提醒我們在享受AI帶來的便利時,必須更加關注其長遠影響和社會責任。隨著全球AI競爭的加劇,如何在全球范圍內(nèi)建立統(tǒng)一且有效的監(jiān)管機制,確保技術創(chuàng)新與社會福祉并行不悖,將成為未來亟待解決的重要課題。DeepSeek的成功不僅是技術上的里程碑,更是對未來全球科技格局的一次深刻啟示。這要求各國在追求技術突破的同時,也要加強國際合作與對話,共同應對這一新時代帶來的機遇與挑戰(zhàn)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.