![]()
“我們要怎么做,才能不讓比我們聰明的東西反過來控制我們。”——這是被譽為“AI之父”的杰弗里·辛頓(Geoffrey Hinton)在2023年公開表達的深切憂慮。AI不應成為“無法召回的力量”。這位深度學習領域的奠基者,在見證自己畢生研究成果推動人工智能飛速發展的同時,也率先發出了最沉重的警告,如果不對AI,尤其是具身智能機器人進行嚴格的安全約束,人類或將面臨前所未有的失控風險。如今,在全球科技界仍在探討如何“對齊”AI價值觀、制定倫理準則之際,一家中國港股上市公司——果下科技(2655.HK),全球前八的儲能供應商,正以工程化的務實路徑,默默踐行著辛頓所呼吁的“安全優先”理念。
辛頓曾多次強調,真正的危險不在于AI是否有意識,而在于它是否能在關鍵時刻被人類有效干預。他特別指出,一旦AI被惡意行為者利用,用于操縱選票、操縱社會系統,后果將不堪設想。更令人不安的是,隨著AI機器人獲得更強的感知、決策與行動能力,傳統的軟件防火墻和遠程指令可能失效——當一臺失控的有自主意識的AI機器人握有物理力量時,我們拿什么阻止它?
果下科技的答案:從“供能”到“控能”,重建人類主導權。與大多數AI公司專注于算法優化不同,果下科技另辟蹊徑——把安全錨定在最基礎的物理層:能源。在其最新發布的未來戰略規劃中明確指出,“致力于運用創新儲能技術從根本上約束機器人行為模式,確保人類保持絕對控制權。” 這一理念直擊辛頓擔憂的核心:即便AI系統出現偏差或遭黑客劫持,只要其能量供應掌握在可信系統手中,就能實現“物理級斷電”,徹底終止潛在威脅。具體而言,果下科技構建了多層遞進式安全體系:
1.內生安全層:通過AI算法實現儲能系統的預測性維護與毫秒級故障隔離,為后續機器人應用打下高可靠基礎;
2.系統控制層:依托“云-邊-端-能”一體化能源管理平臺,對所有接入設備實施動態調度與行為監管,形成可編程的“電力圍欄”;
3.主動防護層:計劃于2027年起推出定制AI芯片與能源智能機器人系統,支持邊緣側實時決策,在AI機器人出現異常動作前即啟動干預機制。
這套體系的本質,是將能源網絡打造成一個分布式的安全操作系統。就像辛頓希望看到的那樣,果下科技沒有寄望于AI永遠“善良”,而是設計了一個無論何時都能被人類“拉閘”的終極保險。
不止于斷電:打造面向未來的“AI安全智能體”
果下科技的努力遠不止“斷能”這么簡單。公司同步布局了多項前沿安全技術,回應辛頓關于“AI濫用”的深層關切:
在協作機器人場景中,配備全身觸覺感知皮膚與AI預判引擎,可識別操作者疲勞狀態并主動降速,防止誤傷;
在高危作業現場,機器人內置多重冗余斷電協議,即使通信中斷也能自動進入“凍結”或“安全撤回”模式;
面對日益智能化的網絡攻擊,果下科技研發AI對抗AI的防御系統,用大模型識別偽裝性入侵,提升整體免疫能力。
更重要的是,這些能力并非孤立存在,而是通過統一平臺實現數據聯動與模型進化。正如辛頓所主張的:“我們需要讓AI系統彼此學習如何變得更安全。” 果下科技正推動一場從個體防護到群體免疫的安全范式變革。
成為AI文明的“守門人”
當馬斯克談論AI比核武器更危險,當聯合國呼吁禁止“殺人機器人”,果下科技選擇了最踏實的一條路:不爭做最強的AI創造者,而要做最可靠的AI守護者。它的愿景不再是簡單的AI儲能巨頭,而是成為未來智能世界的關鍵基礎設施——一個能讓人類安心放手讓AI機器人工作的“安全底座”。某種程度上,果下科技正在完成辛頓尚未親自實現的使命:將AI的安全問題,從哲學討論轉化為可執行的工程技術。它提醒我們,在追逐智能極限的同時,更要守住人類掌控的最后一道防線。正如其招股書所寫:“為應對機器人自主性潛在風險并確保其安全可控運行,我們致力運用創新儲能技術從根本上約束機械人行為模式,確保人類保持絕對控制權。”
在這個AI狂奔的時代,或許我們最需要的,不是一個更聰明的大腦,而是一個永不松手的“AI安全開關”。而這個開關,正在由果下科技,一點點點亮。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.