![]()
從生成式AI的驚艷亮相引起全球科技巨頭軍備競賽般的投入開始,整個AI行業仿佛被注入了無限的想象力。似乎在宣告著即將出現一個生產力即將被徹底解放、商業模式即將被完全顛覆的光明未來。
微軟、谷歌、亞馬遜等云巨頭紛紛將資本支出的絕大部分押注于AI基礎設施建設,而無數逐利而來的AI初創公司,更是如雨后春筍般涌現試圖分一杯羹,全球AI領域的投資額也達到了史無前例的高度。
然而,正如任何過熱的淘金熱最終都會迎來冷靜期當技術以超乎預期的速度普及時,潛在的負面效應也以同樣的速度被放大,正在悄然侵蝕著行業參與者。
從“可選項”到“必選項”的巨額支出
![]()
根據奇安信集團對外發布《2024人工智能安全報告》來看,在2023年基于AI的深度偽造欺詐便已暴增了3000%,基于AI的釣魚郵件也增長了1000%;而內容生成環節更是實現規模化生產。
基于Stable Diffusion和GPT-4的定制模型,可每小時生成2000條偽原創研報、800段逼真視頻。暗網平臺“DarkGPT”更是提供包月服務,1萬美元即可獲得每日5000條金融虛假內容的產能。
而且“AI濫用”的后遺癥并不僅僅在社會新聞版塊,可以說它已經穿透了科技公司的防火墻直接作用于其財務報表。而金融行業正是這場風暴的中心,當AI以假亂真的能力被精準地應用于金融詐騙時,其破壞力可以說是指數級的增長。
據行業估算,2024年由深度偽造技術引發的各類欺詐造成的全球經濟損失已高達120億美元。尤其在監管相對滯后、交易更為匿名的加密貨幣領域,AI濫用更是如魚得水。根據相關的報告也顯示2024年僅AI深度偽造技術全年造成的損失便高達46億美元。
隨著AI濫用事件的頻發,過去模糊的“倫理指南”正在迅速轉變為具有強制約束力的法律條文,而且這種轉變直接導致了企業合規成本的急劇攀升。
而且一旦出現違規需要付出的代價更是慘痛的,罰款最高可達全球年營業額的數個百分點或數千萬歐元,而且合規也不再是法務部門的單一工作,而是滲透到研發、產品、市場的每一個環節。
這些“反噬”也并非憑空產生,在AI商業化過程中對速度和規模的追求,長期以來壓倒了對安全和倫理的考量所以形成了這種“原罪”。因此未來合規成本的升高是不可避免的,而歐盟的《AI法案》可以說是這一趨勢的先行者。
該法案于2024年8月1日正式生效并分階段實施,著重對高風險的AI系統施加了嚴格的合規要求。而且這不僅僅是一項區域性法規,更可能產生“布魯塞爾效應”從而影響全球的AI監管格局。
監管的落地也將會直接轉化為企業的合規成本。據公開信息推算,僅歐盟AI法案便可能導致歐洲企業的AI采納成本增加約310億歐元,并使AI投資減少近20%。而美國聯邦貿易委員會也已對OpenAI展開調查,谷歌等公司也不得不調整其營銷話術,避免被處以巨額罰款。
可以說“監管的鐵幕”正在迫使整個行業從過去“快速行動,打破陳規”的互聯網思維轉向一種更為審慎、合規驅動的開發模式。可以說這種轉變無疑會減緩創新速度并增加運營成本,對于那些資源有限的中小企業和初創公司構成尤為嚴峻的挑戰。
對“信任”的侵蝕或許是AI濫用最難修復的一種
![]()
這源于在激烈的競爭壓力下,企業急于搶占市場將產品快速推向用戶,所以將風險控制和安全測試置于次要位置。但是這種“快速行動并打破規則”的心態在AI時代尤為危險,因為AI技術的潛在破壞力遠超以往的軟件應用。
并且市場對于AI技術的可靠性極度敏感,甚至一次小小的失誤都可能引發巨大的信任危機和財務損失。谷歌的Bard模型之前便在一次演示中出現事實性錯誤,竟然導致其母公司Alphabet的股價在單日內暴跌7%,市值蒸發超過1000億美元。
并且隨著AI投資的巨額支出持續攀升,投資者開始擔憂其回報前景,這種悲觀情緒導致Meta、Microsoft、Alphabet和Nvidia等AI領域的領軍企業股價普遍承壓下跌,市場也開始討論“AI泡沫”的風險,并開始質疑哪些不計成本的“軍備競賽”式投資。
更何況大量公司缺乏對AI倫理的明確責任歸屬,高管層面也并未對其有所調整。所以AI系統的決策過程像一個“黑箱”,在責任主體模糊的情況下濫用和誤用的風險便難以控制。企業內部也未建立有效的問責機制。
但是更深層次的原因在于當前主流生成式AI商業模式本身所內含的風險。這些模型依賴于海量數據的投喂,其訓練過程難以完全避免偏見和有害信息的吸收。而其強大的生成能力卻為惡意利用提供了溫床。
因此當商業模式的核心是追求更強大的模型、更廣泛的應用時,如果缺乏與之匹配的強大“安全剎車”系統,濫用就成了可預見的副產品。這種商業邏輯與倫理要求之間的結構性失衡才是導致“反噬”的根本內因。
所以當企業享受了技術紅利帶來的增長,如今便也不得不為其模式所伴生的風險“買單”。哪怕科技公司以“讓世界更美好”的敘事推廣AI,公眾在實際體驗中,也會頻繁受到隱私泄露、算法偏見、就業替代、虛假信息等負面影響。
這種落差也導致了廣泛的“AI焦慮”和不信任感。公眾普遍認為現有的監管法規不足以應對AI帶來的社會風險期望政府采取更加果斷的行動。這種強大的民意壓力也是推動監管機構加速行動的根本動力。
面對公眾的呼聲和潛在的社會風險,監管機構的介入是必然的。但由于技術發展的速度遠超立法速度監管往往表現出一定的滯后性,歐盟AI法案便被部分人士認為可能增加企業負擔、抑制創新。
全球主要經濟體在AI領域的競爭,也使得監管變得更加復雜。各國都希望在鼓勵創新和防范風險之間找到平衡點但這種平衡點的位置各不相同,因此形成了復雜的國際監管格局給跨國企業的合規帶來了巨大挑戰。
而且這種外部濫用對整個AI行業的聲譽造成了“連坐”效應。即使一家公司本身恪守倫理,也無法完全獨善其身,因為公眾對AI的信任是整體性的。惡意濫用行為如同向池塘中投下的毒藥,在污染了整個水域后迫使所有“池中生物”共同承擔后果。
這場危機成為AI自我革新的契機
這場“反噬”帶來的陣痛,是AI產業從野蠻生長走向規范發展的必經階段。它正在淘汰那些只想賺快錢、缺乏責任感的“玩家”,篩選出真正有實力、有遠見的長期主義者。從長遠來看,這也是為AI產業的健康、可持續發展所必須付出的代價。
其中最大的機遇在于將“信任”從一種道德呼吁,轉變為一種可量化、可變現的商業資產和競爭壁壘。數據顯示近85%的客戶也更愿意與重視AI倫理實踐的公司合作,而那些優先考慮倫理和透明度的公司收入增長也更快。
可以說在AI產品同質化日益嚴重的未來,誰能贏得用戶的信任誰就能贏得市場。“負責任的AI”將不再僅僅是公關部門的口號,而是必須貫穿于產品設計、開發、部署全流程的核心戰略。
谷歌和微軟等公司已經開始調整其策略,谷歌選擇利用AI技術提升廣告安全審核的效率,打擊欺詐內容;微軟則發布了負責任AI透明度報告,并推出了AzureAIContentSafety等服務,幫助客戶構建更安全的AI應用。這些舉措既是應對風險的防御,也是在構建新的競爭優勢。
正是“反噬”催生了全新的“安全即服務”市場。隨著AI濫用風險的加劇企業對AI安全審計、風險評估、內容過濾、合規咨詢等服務的需求將急劇增長。這為專門從事AI安全和倫理治理的科技公司、咨詢機構創造了巨大的市場空間。
而科技巨頭自身也可以將其內部成熟的安全工具和能力平臺化、服務化,開拓新的收入來源。例如,谷歌和微軟在內容審核、風險識別方面的技術積累,完全可以轉化為對外輸出的商業服務。
雖然監管的收緊雖然帶來了成本,但也為行業設定了“準入標準”,能夠率先滿足高標準合規要求的企業將獲得更強的市場公信力和競爭優勢,從而在未來的市場整合中占據有利地位。這實際上是一種由監管驅動的市場出清和格局優化。
從濫用事件的激增,到資本市場的審慎,再到全球監管的收緊,這股“反噬”之力正在重塑AI產業的發展軌跡。它迫使整個行業從過去對技術力量的無限崇拜,轉向對技術責任和社會價值的深刻反思。
麥肯錫預測,到2030年AI將為全球經濟創造13萬億美元價值。但價值分配取決于我們如何駕馭這頭猛獸。未來的競爭,將不僅僅是模型參數和算力大小的競爭,更是治理能力、責任擔當和用戶信任的競爭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.