![]()
我們可能用一個聊天機器人,換掉了治愈癌癥的機會。
這并非陰謀論,而是哈薩比斯(Demis Hassabis)的原話邏輯。
這位諾貝爾獎得主、Google DeepMind的CEO、AlphaFold的創造者,在被問到ChatGPT發布那一刻時,給出了一個幾乎可以稱得上“反行業共識”的回答:
“如果讓我來決定的話,我會讓AI在實驗室里待得更久一些,做更多AlphaFold這樣的事情——也許能治愈癌癥之類的。”
但現實是,像ChatGPT這樣的產品爆發,讓整個AI行業都陷入了高速競爭。
![]()
上述內容來自Huge Conversations在2026年4月7日發布的一次訪談,在這場對話中,哈薩比斯講清楚了四件事:
AI真正改變世界的地方
AI是如何偏離原本路徑的
真正需要被擔心的風險
人類應該怎么應對
下面,是這場對話中最值得關注的幾個部分。
01
AI真正改變世界的地方,我們很難看見
如果不是相關從業人員,大部分人對AI的印象還停留在聊天機器人、寫作助手、或者生成圖片上。
哈薩比斯在這場訪談里提到了一個很容易被忽略的事實:AI更重要的應用,其實發生在這些產品之外。
真正重要的變化發生在另一個離日常生活很遠的層面,在實驗室、在數據庫、在那些大多數人從未接觸過的科學問題之中。
最典型的例子就是AlphaFold。這是哈薩比斯帶領DeepMind做出的一個系統,目標是僅憑一段蛋白質的氨基酸序列,預測出它最終的三維結構。
你可以這么想:蛋白質的結構決定了它在人體中的功能,而功能決定了疾病如何發生,也決定了藥物如何起作用。
當然實際情況會復雜得多,在這里就不展開解釋了。
過去,科學家想知道一個蛋白質有什么樣的結構,需要花費數年時間,在實驗室里反復嘗試,成本動輒幾十萬美元,甚至更高。
很多蛋白質因為結構過于復雜,想被解析出來簡直難如登天——認真的,不是開玩笑。
但AlphaFold把這件事變成了一次計算問題,輸入一段序列,只需要幾秒鐘就能得到一個高度可靠的三維結構預測。
DeepMind原本可以像行業里慣常的做法那樣做一個在線服務,科學家提交一個蛋白質序列,系統算一次,返回結果。
但在一次內部會議上,哈薩比斯突然意識到,與其按需計算,不如把自然界中已知的所有蛋白質全部算完。
于是DeepMind在他的帶領下,把大約兩億個蛋白質結構批量計算了出來,免費開放給全世界。
![]()
在某種意義上我們可以認為這是一項公益事業,畢竟這一做法意味著,結構生物學這個領域,突然多了一個隨時可以調用的基礎設施。
哈薩比斯解釋到,今天已經有超過300萬名科學家在使用AlphaFold。對于許多研究者來說,這已經不只是一個“工具”,更像一個默認存在的前提條件。
在藥物研發中,AlphaFold改變了整個流程的起點:過去的路徑是在實驗室里反復試錯,但現在,大量的試錯被提前搬到了計算機里。
過去,研究者需要先確定一個可能的靶點,再去設計分子,讓它能“貼”在這個蛋白質上。這個過程依賴大量濕實驗:做一個分子,測試一次;如果不對就再改一點,再測一次。
但在AI介入之后,這個邏輯開始發生變化。
在DeepMind拆分出來的藥物公司Isomorphic Labs中,這一過程被重新組織成了一種“計算優先”的模式:AI先在計算機中生成大量候選分子,預測它們與目標蛋白質的結合效果,同時快速檢查這些分子是否會誤傷人體內其他蛋白質,可能帶來什么副作用……
然后,根據這些反饋不斷調整分子結構,進入下一輪搜索。
整個過程變成了一種高頻率的迭代搜索,原本在實驗室里花費大量時間和資源的試錯,被壓縮到了計算機的多輪計算里。
濕實驗并沒有消失,只是被推到了流程的最后一環:只有少數幾個最有希望的候選分子,才會真正進入實驗驗證。
傳統路徑中一款藥物的研發周期大約需要10年,成功率只有約10%。而這種以計算為核心的方式,至少在理論上,有機會同時改變這兩個數字。
哈薩比斯自己的判斷是:從現在開始,幾乎所有新藥的研發過程中,都會或多或少地用到AI。
在他看來,這才是AI最有可能改變世界的方式。不是以任何一個爆款產品的形式出現,也不會在手機界面上反復提醒你它的存在。
它更像是一層被鋪設好的底層系統,一旦建成,就會悄無聲息地改變整個領域的運行方式。
也就是說,如果只看聊天機器人,我們看到的可能只是AI最不重要的一部分。
02
AI正在被“推著跑”
如果順著哈薩比斯自己的設想,AI的發展路徑本來可以是另一種樣子,更慢一點,也更“科學家”一點。
他在訪談里給出了一個比較罕見的表態:如果由他來決定,他會讓AI在實驗室里多待10年,甚至20年,像大型科學項目那樣推進。
他給出的參照是CERN(歐洲核子研究中心,世界上最大的粒子物理研究機構),像那樣把全世界最好的科學家組織在一起,一步一步把問題拆清楚,對每一個關鍵環節都建立起足夠清晰的理解,而不是在不完全理解的情況下快速往前推進。
在這條路徑上,AI的目標并不是盡快做出產品,而是優先解決那些最基礎、最關鍵的科學問題——AlphaFold就是這種思路的典型體現。
在他的設想中,這些“慢而深”的突破,可以在通往AGI(通用人工智能)的過程中,持續為人類帶來回報。
但現實并不是這樣。
哈薩比斯的解釋很直白:技術的發展,往往不會按照預期的路徑前進。
其中一個關鍵的轉折點是語言模型的突破,以及ChatGPT帶來的爆發式傳播。
語言能力比很多人預期的要容易解決得多,像Transformer這樣的架構,加上一些強化學習方法,就足以讓模型在語言、概念和抽象表達上表現出驚人的能力。
ChatGPT最初也只是一個研究實驗,但它一被發布就迅速變成了一個全球性的產品。
![]()
它改變了整個行業的節奏,讓AI變成了一場正在發生的激烈競爭。
大量用戶開始直接接觸到最前沿的AI能力,市場的關注點也隨之發生了轉移,從實驗室里的長期問題,轉向了可以快速落地的產品形態。
商業競爭開始加速,各家公司不得不更頻繁地發布新模型,模型能力的演進也開始和用戶增長、市場反饋深度綁定在一起。
哈薩比斯并沒有完全否定這種加速,他承認這種發展方式也帶來了幾個現實的好處:原本可能需要更長時間才能落地的能力,現在可以更早進入現實世界。
今天大多數人使用到的AI,往往只比實驗室內部的版本落后幾個月——這放在以前幾乎是難以想象的。大量的真實使用也帶來了更豐富的數據,畢竟再完善的內部測試,也難以覆蓋數百萬用戶帶來的復雜場景。
但有好處并不意味著路徑是理想的,它更像是一個被現實推動出來的結果。
哈薩比斯的態度其實很清楚,他是一個科學家,但同時也是一個工程師。我們可以理解為一種理想主義者在現實面前的妥協:他知道什么是更理想的路徑,但也接受這個世界并不會按照理想運行。
技術的進展在很大程度上是不可預測的,一旦某個方向率先取得突破,它就會迅速吸引資源、資本和注意力。
于是,更容易被產品化的能力被不斷放大,原本可能優先推進的科學問題,則被暫時放在了后面。
從這個角度看,今天的AI并不是沿著“最有價值”的方向在前進,而是在多種力量的推動下,走上了一條更快、也更不確定的路徑。
03
真正的風險不是deepfake,是兩件更大的事
關于AI的討論,大多數焦點都集中在一類問題上:deepfake、虛假信息、內容失真。
注意,這里是對于大部分人而言,不是從業者,是任何一個使用AI的普通人。
deepfake確實是問題,但在哈薩比斯看來,它并不是最值得擔心的那一類。
他在訪談中給出了一個非常明確的排序:
第一類是“人”的問題。小到個人,大到國家,會不會把這些原本用于科學研究、醫療和基礎設施的技術,用在有害的方向上。
這種風險并不新,但AI讓它的規模和效率發生了變化。一個原本只在小范圍內產生影響的能力,一旦被放大,就可能帶來完全不同級別的后果。
第二類是AI本身的問題。準確地說,是隨著AI從“工具”變成能夠獨立完成任務的系統,這種變化所帶來的不確定性。
哈薩比斯提到,今天的系統還不具備這種能力,但在未來幾年內,隨著AI進入所謂的“agentic”階段(也就是能夠自主執行完整任務的階段),問題會變得更加嚴峻。
關鍵并不在它是否足夠智能,在于我們是否能夠確保它始終按照既定目標行事,不會繞過規則,也不會在執行過程中偏離原本的意圖。
這在技術上是非常困難的,因為系統越智能,它能夠找到的捷徑也就越多,而這些捷徑并不一定符合設計者最初的預期。
哈薩比斯認為,這兩類風險是接下來幾年需要重點面對的問題。
相比之下,當前最常被討論的deepfake和虛假信息,更像是“已經發生的問題”,它們需要被解決,也有相對明確的技術路徑,比如通過水印系統來標記AI生成內容:DeepMind內部就開發了類似的技術(SynthID),用于識別和追蹤生成內容的來源。
如果把整個風險結構看作一個時間軸:短期我們面對的是信息層面的混亂;而中期,更嚴肅的問題,是能力層面的失控。
至于后期,現在談論后期還為時過早(bushi)。
在這個意義上,哈薩比斯提到點:真正需要被關注的,并不是AI能說什么,而是它能做什么。
當AI開始從“回答問題”走向“執行任務”,風險的性質也會隨之發生變化。
換句話說,我們正在談論的很多風險只是發生在信息層面,而我們真正需要警惕的,是正在逼近的“行動”。
這話聽起來有些科幻小說質感,可能很多人都設想過,有朝一日出現的超級智能覺醒出了“自我意識”,然后反過來替代甚至統治人類。
哈薩比斯本人也表示自己讀了很多科幻小說,他最愛的是Iain Banks的Culture系列,那是一個post-AGI的世界,書里發生在一千年之后,但他覺得其中一些情節可能在50年內就成立。
不過他本人對此的設想比較美好:風險被解決了,人類安全度過了AGI時刻,AGI已經在每個人的口袋里,對社會有益,然后用來攻克他所說的“科學中的根節點問題”,像是能源、醫療、材料什么的。
04
把自己浸入每一種可用的AI工具里
如果把前面的討論繼續往前推,很容易走到一個問題:當AI開始參與科學發現、參與決策、甚至開始執行任務,人類還剩下什么?
換句話說,“人類為什么特別”?
這個問題在訪談后半段被非常坦誠地提了出來:主持人說,她發現自己在做一件人類歷史上反復在做的事情,試圖找到一個理由,證明“我們是特殊的”。
我們曾經以為地球在宇宙的中心,后來發現不是;我們以為只有人類會哀悼,后來發現大象也會;我們以為只有人類能創作藝術,但現在,AI也可以畫畫、寫作、作曲。
每一次邊界被打破,人類都會重新問一遍這個問題:我們到底為什么特殊。
對于這個問題,哈薩比斯并沒有直接給出一個答案,我覺得這個問題也很難被簡單的回答出來。
他提到了一個經典的計算理論框架:圖靈機。
從理論上講,一臺通用計算機可以計算任何“可計算”的問題;在很多神經科學家的理解中,人腦本身也可以被看作是一種近似的計算系統。
如果這個前提成立,那么人類的大腦和我們正在構建的AI系統,在某種意義上是同一類東西。也正因如此,AI才有可能不斷逼近甚至超過人類在某些能力上的表現。
而如果連智能本身都可以被復現,那么真正值得追問的,可能不再是“我們和AI有什么不同”,而是“我們到底在試圖理解什么”。
![]()
哈薩比斯在訪談中提到,他小時候最喜歡的學科其實是物理。
吸引他的不是應用,而是那些最基礎的問題:時間是什么?意識是什么?宇宙是如何運作的?
但這些問題,直到今天依然沒有答案。
而他做AI的一個核心動機,就是把它當作一種工具,去幫助人類理解這些問題。
從這個角度看,AI并不只是一個替代人類能力的系統,更像一個被用來放大認知邊界的工具。
這也解釋了為什么,在談到未來時,他的語氣反而很樂觀:如果風險能夠被控制,AI可以被用來解決那些“根節點問題”,那些一旦被突破,就會帶來成體系的變化的問題。人類最終甚至可以把這種能力帶出地球,延伸到更遠的地方。
但這些都還是遠景,我們還是要回到更現實的問題:對于今天的人來說,該怎么辦?
哈薩比斯的建議很樸素,他在訪談里說,他每次去大學演講,都會重復同一句話:
“跟上這股潮流。”
對于每個想要參與AI未來的人,哈薩比斯的建議是把自己浸入到這些工具里,去理解它們,使用它們,成為一個“被放大的人”。
原因很簡單,即使是在最前沿的實驗室內部,大量精力也只能用于打磨模型本身,但這些模型真正可以被用來做什么,還有巨大的空間沒有被探索。
也就是說,能力已經在那里了,但應用還沒有被窮盡。
這也意味著,對那些能夠理解這些工具、并把它們應用到新領域的人來說,機會正在迅速擴大。
他給出了一個非常具體的判斷:今天的一個年輕人,完全有可能借助這些工具,在別人沒有想到的方向上,做出一家價值數十億美元的公司。(他舉的例子是OpenClaw。)
把整場對話看下來,它其實給出了一個矛盾但真實的圖景:一方面,AI正在被加速推進,風險正在逼近;另一方面,AI也打開了一個前所未有的機會窗口。
我們可能確實用一些更容易被產品化的能力,暫時換掉了某些更重要的可能性。
但事情已經發生,人類能做的或許并不是去糾正這條路徑,而是盡可能理解它,并在其中找到自己的位置。
在對話的最后,主持人問了一個很感性的問題:你希望別人如何評價你的一生?
而哈薩比斯對此的回答是:“我希望他們會說,我的一生,對人類是有幫助的。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.