![]()
從生成式AI的驚艷亮相引起全球科技巨頭軍備競賽般的投入開始,整個AI行業(yè)仿佛被注入了無限的想象力。似乎在宣告著即將出現(xiàn)一個生產(chǎn)力即將被徹底解放、商業(yè)模式即將被完全顛覆的光明未來。
微軟、谷歌、亞馬遜等云巨頭紛紛將資本支出的絕大部分押注于AI基礎(chǔ)設(shè)施建設(shè),而無數(shù)逐利而來的AI初創(chuàng)公司,更是如雨后春筍般涌現(xiàn)試圖分一杯羹,全球AI領(lǐng)域的投資額也達到了史無前例的高度。
然而,正如任何過熱的淘金熱最終都會迎來冷靜期當技術(shù)以超乎預(yù)期的速度普及時,潛在的負面效應(yīng)也以同樣的速度被放大,正在悄然侵蝕著行業(yè)參與者。
從“可選項”到“必選項”的巨額支出
![]()
根據(jù)奇安信集團對外發(fā)布《2024人工智能安全報告》來看,在2023年基于AI的深度偽造欺詐便已暴增了3000%,基于AI的釣魚郵件也增長了1000%;而內(nèi)容生成環(huán)節(jié)更是實現(xiàn)規(guī)模化生產(chǎn)。
基于Stable Diffusion和GPT-4的定制模型,可每小時生成2000條偽原創(chuàng)研報、800段逼真視頻。暗網(wǎng)平臺“DarkGPT”更是提供包月服務(wù),1萬美元即可獲得每日5000條金融虛假內(nèi)容的產(chǎn)能。
而且“AI濫用”的后遺癥并不僅僅在社會新聞版塊,可以說它已經(jīng)穿透了科技公司的防火墻直接作用于其財務(wù)報表。而金融行業(yè)正是這場風(fēng)暴的中心,當AI以假亂真的能力被精準地應(yīng)用于金融詐騙時,其破壞力可以說是指數(shù)級的增長。
據(jù)行業(yè)估算,2024年由深度偽造技術(shù)引發(fā)的各類欺詐造成的全球經(jīng)濟損失已高達120億美元。尤其在監(jiān)管相對滯后、交易更為匿名的加密貨幣領(lǐng)域,AI濫用更是如魚得水。根據(jù)相關(guān)的報告也顯示2024年僅AI深度偽造技術(shù)全年造成的損失便高達46億美元。
隨著AI濫用事件的頻發(fā),過去模糊的“倫理指南”正在迅速轉(zhuǎn)變?yōu)榫哂袕娭萍s束力的法律條文,而且這種轉(zhuǎn)變直接導(dǎo)致了企業(yè)合規(guī)成本的急劇攀升。
而且一旦出現(xiàn)違規(guī)需要付出的代價更是慘痛的,罰款最高可達全球年營業(yè)額的數(shù)個百分點或數(shù)千萬歐元,而且合規(guī)也不再是法務(wù)部門的單一工作,而是滲透到研發(fā)、產(chǎn)品、市場的每一個環(huán)節(jié)。
這些“反噬”也并非憑空產(chǎn)生,在AI商業(yè)化過程中對速度和規(guī)模的追求,長期以來壓倒了對安全和倫理的考量所以形成了這種“原罪”。因此未來合規(guī)成本的升高是不可避免的,而歐盟的《AI法案》可以說是這一趨勢的先行者。
該法案于2024年8月1日正式生效并分階段實施,著重對高風(fēng)險的AI系統(tǒng)施加了嚴格的合規(guī)要求。而且這不僅僅是一項區(qū)域性法規(guī),更可能產(chǎn)生“布魯塞爾效應(yīng)”從而影響全球的AI監(jiān)管格局。
監(jiān)管的落地也將會直接轉(zhuǎn)化為企業(yè)的合規(guī)成本。據(jù)公開信息推算,僅歐盟AI法案便可能導(dǎo)致歐洲企業(yè)的AI采納成本增加約310億歐元,并使AI投資減少近20%。而美國聯(lián)邦貿(mào)易委員會也已對OpenAI展開調(diào)查,谷歌等公司也不得不調(diào)整其營銷話術(shù),避免被處以巨額罰款。
可以說“監(jiān)管的鐵幕”正在迫使整個行業(yè)從過去“快速行動,打破陳規(guī)”的互聯(lián)網(wǎng)思維轉(zhuǎn)向一種更為審慎、合規(guī)驅(qū)動的開發(fā)模式。可以說這種轉(zhuǎn)變無疑會減緩創(chuàng)新速度并增加運營成本,對于那些資源有限的中小企業(yè)和初創(chuàng)公司構(gòu)成尤為嚴峻的挑戰(zhàn)。
對“信任”的侵蝕或許是AI濫用最難修復(fù)的一種
![]()
這源于在激烈的競爭壓力下,企業(yè)急于搶占市場將產(chǎn)品快速推向用戶,所以將風(fēng)險控制和安全測試置于次要位置。但是這種“快速行動并打破規(guī)則”的心態(tài)在AI時代尤為危險,因為AI技術(shù)的潛在破壞力遠超以往的軟件應(yīng)用。
并且市場對于AI技術(shù)的可靠性極度敏感,甚至一次小小的失誤都可能引發(fā)巨大的信任危機和財務(wù)損失。谷歌的Bard模型之前便在一次演示中出現(xiàn)事實性錯誤,竟然導(dǎo)致其母公司Alphabet的股價在單日內(nèi)暴跌7%,市值蒸發(fā)超過1000億美元。
并且隨著AI投資的巨額支出持續(xù)攀升,投資者開始擔憂其回報前景,這種悲觀情緒導(dǎo)致Meta、Microsoft、Alphabet和Nvidia等AI領(lǐng)域的領(lǐng)軍企業(yè)股價普遍承壓下跌,市場也開始討論“AI泡沫”的風(fēng)險,并開始質(zhì)疑哪些不計成本的“軍備競賽”式投資。
更何況大量公司缺乏對AI倫理的明確責任歸屬,高管層面也并未對其有所調(diào)整。所以AI系統(tǒng)的決策過程像一個“黑箱”,在責任主體模糊的情況下濫用和誤用的風(fēng)險便難以控制。企業(yè)內(nèi)部也未建立有效的問責機制。
但是更深層次的原因在于當前主流生成式AI商業(yè)模式本身所內(nèi)含的風(fēng)險。這些模型依賴于海量數(shù)據(jù)的投喂,其訓(xùn)練過程難以完全避免偏見和有害信息的吸收。而其強大的生成能力卻為惡意利用提供了溫床。
因此當商業(yè)模式的核心是追求更強大的模型、更廣泛的應(yīng)用時,如果缺乏與之匹配的強大“安全剎車”系統(tǒng),濫用就成了可預(yù)見的副產(chǎn)品。這種商業(yè)邏輯與倫理要求之間的結(jié)構(gòu)性失衡才是導(dǎo)致“反噬”的根本內(nèi)因。
所以當企業(yè)享受了技術(shù)紅利帶來的增長,如今便也不得不為其模式所伴生的風(fēng)險“買單”。哪怕科技公司以“讓世界更美好”的敘事推廣AI,公眾在實際體驗中,也會頻繁受到隱私泄露、算法偏見、就業(yè)替代、虛假信息等負面影響。
這種落差也導(dǎo)致了廣泛的“AI焦慮”和不信任感。公眾普遍認為現(xiàn)有的監(jiān)管法規(guī)不足以應(yīng)對AI帶來的社會風(fēng)險期望政府采取更加果斷的行動。這種強大的民意壓力也是推動監(jiān)管機構(gòu)加速行動的根本動力。
面對公眾的呼聲和潛在的社會風(fēng)險,監(jiān)管機構(gòu)的介入是必然的。但由于技術(shù)發(fā)展的速度遠超立法速度監(jiān)管往往表現(xiàn)出一定的滯后性,歐盟AI法案便被部分人士認為可能增加企業(yè)負擔、抑制創(chuàng)新。
全球主要經(jīng)濟體在AI領(lǐng)域的競爭,也使得監(jiān)管變得更加復(fù)雜。各國都希望在鼓勵創(chuàng)新和防范風(fēng)險之間找到平衡點但這種平衡點的位置各不相同,因此形成了復(fù)雜的國際監(jiān)管格局給跨國企業(yè)的合規(guī)帶來了巨大挑戰(zhàn)。
而且這種外部濫用對整個AI行業(yè)的聲譽造成了“連坐”效應(yīng)。即使一家公司本身恪守倫理,也無法完全獨善其身,因為公眾對AI的信任是整體性的。惡意濫用行為如同向池塘中投下的毒藥,在污染了整個水域后迫使所有“池中生物”共同承擔后果。
這場危機成為AI自我革新的契機
這場“反噬”帶來的陣痛,是AI產(chǎn)業(yè)從野蠻生長走向規(guī)范發(fā)展的必經(jīng)階段。它正在淘汰那些只想賺快錢、缺乏責任感的“玩家”,篩選出真正有實力、有遠見的長期主義者。從長遠來看,這也是為AI產(chǎn)業(yè)的健康、可持續(xù)發(fā)展所必須付出的代價。
其中最大的機遇在于將“信任”從一種道德呼吁,轉(zhuǎn)變?yōu)橐环N可量化、可變現(xiàn)的商業(yè)資產(chǎn)和競爭壁壘。數(shù)據(jù)顯示近85%的客戶也更愿意與重視AI倫理實踐的公司合作,而那些優(yōu)先考慮倫理和透明度的公司收入增長也更快。
可以說在AI產(chǎn)品同質(zhì)化日益嚴重的未來,誰能贏得用戶的信任誰就能贏得市場。“負責任的AI”將不再僅僅是公關(guān)部門的口號,而是必須貫穿于產(chǎn)品設(shè)計、開發(fā)、部署全流程的核心戰(zhàn)略。
谷歌和微軟等公司已經(jīng)開始調(diào)整其策略,谷歌選擇利用AI技術(shù)提升廣告安全審核的效率,打擊欺詐內(nèi)容;微軟則發(fā)布了負責任AI透明度報告,并推出了AzureAIContentSafety等服務(wù),幫助客戶構(gòu)建更安全的AI應(yīng)用。這些舉措既是應(yīng)對風(fēng)險的防御,也是在構(gòu)建新的競爭優(yōu)勢。
正是“反噬”催生了全新的“安全即服務(wù)”市場。隨著AI濫用風(fēng)險的加劇企業(yè)對AI安全審計、風(fēng)險評估、內(nèi)容過濾、合規(guī)咨詢等服務(wù)的需求將急劇增長。這為專門從事AI安全和倫理治理的科技公司、咨詢機構(gòu)創(chuàng)造了巨大的市場空間。
而科技巨頭自身也可以將其內(nèi)部成熟的安全工具和能力平臺化、服務(wù)化,開拓新的收入來源。例如,谷歌和微軟在內(nèi)容審核、風(fēng)險識別方面的技術(shù)積累,完全可以轉(zhuǎn)化為對外輸出的商業(yè)服務(wù)。
雖然監(jiān)管的收緊雖然帶來了成本,但也為行業(yè)設(shè)定了“準入標準”,能夠率先滿足高標準合規(guī)要求的企業(yè)將獲得更強的市場公信力和競爭優(yōu)勢,從而在未來的市場整合中占據(jù)有利地位。這實際上是一種由監(jiān)管驅(qū)動的市場出清和格局優(yōu)化。
從濫用事件的激增,到資本市場的審慎,再到全球監(jiān)管的收緊,這股“反噬”之力正在重塑AI產(chǎn)業(yè)的發(fā)展軌跡。它迫使整個行業(yè)從過去對技術(shù)力量的無限崇拜,轉(zhuǎn)向?qū)夹g(shù)責任和社會價值的深刻反思。
麥肯錫預(yù)測,到2030年AI將為全球經(jīng)濟創(chuàng)造13萬億美元價值。但價值分配取決于我們?nèi)绾务{馭這頭猛獸。未來的競爭,將不僅僅是模型參數(shù)和算力大小的競爭,更是治理能力、責任擔當和用戶信任的競爭。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.