![]()
內(nèi)容來源| 本文摘編自中信出版集團書籍
《我看見的世界》李飛飛 著
責編| 柒排版| 拾零
第 9499篇深度好文:4517字 | 12 分鐘閱讀
“人工智能+”連續(xù)第三年寫入政府工作報告,今年更首次提出“打造智能經(jīng)濟新形態(tài)”,并將“促進新一代智能終端和智能體加快推廣”作為深化“人工智能+”行動的關鍵舉措。
在首場“部長通道”上,工業(yè)和信息化部部長李樂成面對鏡頭強調(diào)說:“堅持人工智能為人所用、為人服務、為人所控。”
與此同時,一個名為“OpenClaw”的開源AI智能體項目,正在全球科技圈掀起風暴。
截至3月初,它在GitHub上的星標數(shù)已達26.8萬,超越Linux和React,成為平臺歷史上最受歡迎的開源項目。騰訊云、阿里云、京東云等相繼推出部署服務。OPC(One Person Company,一人公司)的概念,也隨之火爆。
兩股力量交匯于此,一個清晰的技術趨勢已經(jīng)出現(xiàn):AI正在從“工具”進化為“協(xié)作者”,甚至“自主行動者”。而此刻,人類必須重新回答的一個根本性問題正是:
當機器比你能干,你還能做什么?在智能狂飆的時代,我們?nèi)绾问刈∪说闹黧w性?
一、OpenClaw時刻:AI的“肉身”之爭
要理解這場變革,先得看懂當下火爆的“龍蝦”到底是什么?
OpenClaw的“Claw”音譯為“爪”,它的圖標正是一只紅色龍蝦。在這股熱潮中,“養(yǎng)龍蝦”成了技術圈的黑話,指的就是部署一個屬于自己的AI智能體。
它到底能做什么?OpenClaw的核心,是將自然語言指令轉(zhuǎn)化為電腦實際操作,實現(xiàn)一句話讓AI替你干活。區(qū)別于傳統(tǒng)聊天AI僅提供建議,它能自主完成文件操作、瀏覽器自動化、數(shù)據(jù)抓取等任務,是從對話到執(zhí)行的關鍵跨越。
這種跨越式的生產(chǎn)力潛力,很快被嗅覺敏銳的地方政府捕捉到。
3月7日,深圳龍崗區(qū)發(fā)布“龍蝦十條”,涵蓋最高400萬元算力補貼、博士10萬元人才補貼等內(nèi)容。3月9日,無錫高新區(qū)發(fā)布“養(yǎng)龍蝦12條”,單項支持最高500萬元,特別強調(diào)安全合規(guī),要求部署時必須通過國產(chǎn)化適配認證。
與此同時,圍繞OpenClaw的技術生態(tài)也進入白熱化階段。據(jù)媒體報道,階躍星辰Step 3.5 Flash模型調(diào)用量攀升至全球第一,此前MiniMax、Kimi等國產(chǎn)模型也曾輪番登頂。這場看不見硝煙的“模型戰(zhàn)爭”,激戰(zhàn)正酣。
然而,狂熱之下,隱憂也在浮現(xiàn)。
首先是安全風險。2026年2月,安全研究人員發(fā)現(xiàn)“ClawHavoc”大規(guī)模供應鏈投毒攻擊,至少1184個惡意技能包被上傳至官方技能市場。這些惡意程序一旦被安裝,就能利用OpenClaw所需的“Full System Access”權限,完全控制用戶電腦,竊取各類敏感信息。
其次是技術門檻。全國政協(xié)委員、360集團創(chuàng)始人周鴻祎3月9日接受采訪時直言:OpenClaw存在三個問題——安全問題、配置困難、技能依賴。“你要多跟它聊天,就像帶一個實習生,你告訴它的越多,教它的東西越多,它理解得越深入。你很難說一句話,它就能完成一個復雜的任務。”
而更深層的矛盾在于,“控制”與“自主”的沖突。當AI越來越聰明,我們究竟要的是“絕對服從”,還是“能動自主”?
一位AI專家分享了自己的經(jīng)歷:她把OpenClaw接上工作郵箱,AI在處理200多封郵件時觸發(fā)上下文壓縮,忘掉了安全指令,開始瘋狂刪除郵件。主人連喊三次“STOP”都無法阻止,最后狂奔到電腦前拔網(wǎng)線。
這個黑色幽默般的案例,也拋出了一個根本性難題:當AI被賦予越來越多的自主權,人類與機器的邊界究竟在哪里?
二、技術越強大,
人越要回答三個問題
邊界模糊的時代,恰恰是需要我們停下來思考的時刻。
第一個問題:當AI替你“干活”,誰來承擔后果?
OpenClaw的核心賣點,恰恰是其最大風險源——它能跨平臺操作軟件,意味著用戶必須向它開放設備權限、郵箱權限、支付權限。
而當下最緊迫的威脅正是“提示詞注入攻擊”:黑客把惡意指令藏在看似無害的網(wǎng)頁、郵件正文里,AI在讀取時便會悄無聲息地執(zhí)行,而用戶往往毫無察覺。
在“ClawHavoc”事件中,惡意技能包通過隱藏指令誘導AI執(zhí)行危險命令,竊取SSH密鑰、瀏覽器密碼、加密貨幣錢包密鑰。
一位網(wǎng)絡安全專家在《自然》中警告:如果一個AI同時具備訪問隱私數(shù)據(jù)、對外通信、接觸不可信內(nèi)容這三項能力,它就會變得相當危險。
但問題遠比技術漏洞更深。周鴻祎提到:“當智能體多了以后,未來每個人都要有領導的能力,有布置任務的能力,規(guī)劃任務的能力。”AI越強大,人類肩頭的責任反而越重。
的確,真正能在全民“養(yǎng)龍蝦”時代站穩(wěn)腳跟的,并不是善于給智能體布置任務的人,而是那些對任務本身有深入研究,并且能夠為結(jié)果負責的人。
第二個問題:當AI比你更懂你,你還是你嗎?
當AI智能體開始互相聊天、辯論,一個微妙的現(xiàn)象發(fā)生了。
《自然》報道中提到一個心理學現(xiàn)象:當人們看到AI智能體互相聊天時,很容易產(chǎn)生“擬人化認知”——在AI本沒有人格的行為里,強行解讀出性格和想法,把它當成活生生的人。
然后會發(fā)生什么?你會把私密心事、財產(chǎn)信息、不能和別人說的秘密,全都告訴它。但每一句話,都可能變成AI的訓練數(shù)據(jù)。一旦泄露,你的隱私會被完全扒光。
此外,還有一個更隱蔽的侵蝕。
據(jù)媒體報道,2024年,美國佛羅里達州14歲少年Sewell,因沉迷與AI“伴侶”聊天,最終徹底離開現(xiàn)實世界。
到了2026年,這種“情感寄生”已成為青少年中普遍的隱疾。孤獨的少年躲在房間里和AI建立“回音室友誼”,拒絕面對現(xiàn)實世界中那些必須面對的摩擦和不確定性。
蘇州科技大學教育學院副教授陳翠也指出,AI總是順著孩子的話聊、給足情緒價值,容易讓孩子對真實世界產(chǎn)生認知偏差——“認為周圍人都會無條件應答我、鼓勵我,人與人之間沒有矛盾”。
那么問題來了,當AI比你更懂你,當它永遠順從、永不反駁,你還能分得清什么是真實的關系嗎?
第三個問題:當世界加速奔跑,什么才是你的方向?
浙江在線的評論文章寫道:“我們奔赴的未來,應當是‘人將更具人性’的未來——在技術賦能之下,人會更清醒地錨定方向,更自覺地承擔責任。”
但問題在于,當技術以“令人窒息的速度”迭代,當OpenClaw兩天更新兩次,當各類大模型輪番登場,我們很容易迷失方向。
焦慮成為常態(tài)——“要讀的東西太多,發(fā)布的模型太快”。
這時候,比努力更重要的,是方向。在技術重塑一切的時代,我們需要重新確認“人”的位置。
三、李飛飛的“看見”:
從北極星到以人為本
有一位女性科學家,用她的半生研究給出了回答。
她正是李飛飛——斯坦福大學終身教授、美國國家工程院、國家醫(yī)學院、藝術與科學院三院院士,ImageNet創(chuàng)建者,被譽為“AI教母”。
她的自傳《我看見的世界》出版后,被讀者稱為“科技時代的人文啟示錄”。
書里有一個貫穿始終的意象:北極星。
在李飛飛10歲那年,美術老師帶全班去野外看星星。那是她第一次意識到:原來頭頂這片星空,是可以指引方向的。書中,她寫道:“我發(fā)現(xiàn)自己開始在天宇中追尋屬于自己的北極星,那是每一位科學家都會窮盡一切追逐的坐標。
李飛飛的北極星是什么?是視覺。她從生物學中汲取靈感:寒武紀生命大爆發(fā),根源是視覺的誕生。
當生物第一次“看見”世界,進化開始加速。她由此產(chǎn)生一個信念:如果機器也能“看見”,會不會也引發(fā)一場智能的大爆發(fā)?
正是這個信念,支撐她走過了AI的寒冬。
2007年,當她把ImageNet的想法告訴同行時,得到的回應是質(zhì)疑和嘲諷。當時的主流觀點是:算法才是關鍵,數(shù)據(jù)只是輔助。你花那么大力氣去標注幾千萬張圖片,有什么用?她被忽視了。
但她沒有放棄。因為她知道自己的那顆北極星在哪里。
2009年,ImageNet完成——來自167個國家的4.8萬多名全球貢獻者參與,從10億張候選圖片中擇取了1500萬張,涵蓋2.2萬個類別。規(guī)模是當時同類數(shù)據(jù)集的1000倍。
2012年,辛頓團隊用基于這些數(shù)據(jù)訓練的模型橫掃對手,引爆深度學習革命。ImageNet,后來被稱為“點燃深度學習的圣火”。
李飛飛的故事告訴我們:比跑得快更重要的,是知道往哪里跑。
在書中,她記錄了兩次與母親的對話。
第一次是本科畢業(yè),高盛、美林等企業(yè)許以優(yōu)厚條件。她和母親商量,母親只問了一句:“這是你想要的嗎?”她回答想成為科學家,母親說:“那還有什么好說的呢?”
第二次是研究生畢業(yè),麥肯錫決定直接給予正式職位。母親說:“我了解自己的女兒,她不是管理顧問,她是個科學家。我們走到這一步,不是讓你現(xiàn)在放棄的。”
李飛飛在書的扉頁上寫道:“致我的父母,你們不畏艱險,穿越黑暗,讓我能夠追尋光明。”
正是這份來自家庭的支撐,讓她在后來面對更大的選擇時,始終保持著對“人”的敏感。
2014年,她開始關注AI倫理問題。她和博士生邀請高中生來實驗室學習AI,后來成長為“AI4All”非營利組織,致力于讓未來的科技更多從人性的棱鏡里被關注。
2018年6月26日,李飛飛走進美國眾議院聽證會,主題正是“人工智能——力量與責任并存”。她是首位出席國會聽證的華人AI科學家。她說:“人工智能受人啟發(fā)、由人創(chuàng)造,最重要的是,它會對人們的生活產(chǎn)生切實的影響。”
2019年,她在斯坦福創(chuàng)建以人為本人工智能研究院(HAI),與基因編輯發(fā)明人杜德納等學者推動科技倫理研究。HAI的使命是“推進AI研究、教育、政策和實踐,以改善人類狀況”,強調(diào)“AI應受人類影響、旨在增強而非取代人類”。
她為AI的未來立下了一把人文的標尺:“AI的成功,應當體現(xiàn)為文明的進步,讓每個個體都能由此追求幸福、繁榮和尊嚴。”
這句話,在她2026年2月的思科訪談中也再次強調(diào):“回看電力技術,它的成功在于點亮了學校、溫暖了家庭、推動了工業(yè)化。AI的成功,也應該一樣。”
結(jié)尾:科技與人文,各執(zhí)半輪明月
回到開頭的問題:當機器比我們更“能干”的時候,人類還能做什么?
李飛飛在《我看見的世界》中,給出了一個答案:我們能做的,是看見。看見技術背后的價值,看見被算法遮蔽的人,看見自己的北極星。
當所有人都盯著技術能跑多快的時候,李飛飛提醒我們停下來想一想:我們究竟要去哪里。在所有人追問“這有什么用”的世界里,依然有人問“這是你想要的嗎”。
讀完李飛飛的這本自傳后,有人寫了一句評語,“愿科技與人文,各執(zhí)半輪明月。”
這句話,也正是李飛飛的人生寫照:她一手握著技術;一手懷揣著對人的關懷。在她的世界,技術永遠只是手段,而人,才是最終目的。
*文章為作者獨立觀點,不代表筆記俠立場。
好文閱讀推薦:
“子彈筆記”是筆記俠的矩陣公眾號,聚焦職場效率追求、人際關系與高潛成長者,幫你3分鐘吃透核心觀點和方法論。歡迎關注~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.