![]()
哈嘍大家好!今天小界來和大家聊聊AI算力的最新動向!去年伊利亞拋出AI數(shù)據(jù)訓(xùn)練“撞墻”論時(shí),不少人擔(dān)憂大模型發(fā)展會陷入停滯。
如今GPT-5已然發(fā)布,距離那番言論已過去一年,當(dāng)初的“撞墻”困局真的被打破了嗎?GPT-5的表現(xiàn)又能否印證行業(yè)的突圍路徑?答案藏在強(qiáng)化學(xué)習(xí)的爆發(fā)與行業(yè)趨勢的轉(zhuǎn)向里。
![]()
![]()
伊利亞當(dāng)初的擔(dān)憂并非空穴來風(fēng),模型訓(xùn)練對原始數(shù)據(jù)的依賴已達(dá)瓶頸,數(shù)據(jù)采集、標(biāo)注的效率早已大不如前。但誰也沒料到,強(qiáng)化學(xué)習(xí)會成為破局的關(guān)鍵變量,走出一條“左腳踩右腳”的進(jìn)階之路。
一年前,行業(yè)對強(qiáng)化學(xué)習(xí)的認(rèn)知還停留在“后訓(xùn)練階段效率提升工具”的層面,沒人敢設(shè)想它能撬動預(yù)訓(xùn)練這個核心環(huán)節(jié)。
![]()
而如今基于已訓(xùn)練模型生成合成數(shù)據(jù),再反哺預(yù)訓(xùn)練過程的嘗試,已從理論探討走向效果驗(yàn)證。這種閉環(huán)邏輯一旦形成,就像給模型裝上了“自我進(jìn)化引擎”,發(fā)展速度遠(yuǎn)超預(yù)期。
GPT-5的發(fā)布恰好印證了這一點(diǎn)。盡管OpenAI對其技術(shù)細(xì)節(jié)、訓(xùn)練參數(shù)諱莫如深,但特意重點(diǎn)推廣的數(shù)學(xué)、編程、醫(yī)療三大板塊,實(shí)則暴露了強(qiáng)化學(xué)習(xí)的“功勞簿”。
![]()
這三大領(lǐng)域?qū)δP偷木珳?zhǔn)度、邏輯鏈要求極高,正是強(qiáng)化學(xué)習(xí)最擅長突破的場景。若不是在這些領(lǐng)域看到了明確的效果提升,OpenAI絕不會將其作為核心賣點(diǎn)。
更值得關(guān)注的是,這并非GPT-5的個例。回顧過去一年的大模型賽道,DeepSeek、千問、Llama等主流模型在核心能力評分中的高光表現(xiàn),無一例外都踩中了“強(qiáng)化學(xué)習(xí)驅(qū)動”的邏輯。唯有谷歌的相關(guān)模型因技術(shù)路徑差異略有不同,這更讓這條突圍路徑的有效性得到了印證。
![]()
![]()
當(dāng)大家聚焦GPT-5的能力提升時(shí),另一個關(guān)鍵變化被不少人忽略:AI行業(yè)的算力需求重心,正在從訓(xùn)練階段快速轉(zhuǎn)向推理階段。GPT-5不僅契合了這一趨勢,更讓“推理主導(dǎo)未來”的判斷有了實(shí)錘支撐。
這一轉(zhuǎn)向并非偶然,而是多重因素疊加的必然結(jié)果。從模型演進(jìn)來看,早期純基礎(chǔ)模型的“野蠻生長”已告一段落,如今模型尺寸持續(xù)擴(kuò)大,對實(shí)際應(yīng)用場景的適配要求越來越高,推理能力直接決定了模型落地的價(jià)值。
![]()
從數(shù)據(jù)層面講,合成數(shù)據(jù)的廣泛應(yīng)用讓數(shù)據(jù)復(fù)雜度陡增,模型需要更強(qiáng)的推理能力來處理這些非原生數(shù)據(jù)。
更有趣的是,這一過程暗合了IT行業(yè)的“摩爾定律悖論”:硬件性能每18個月提升一倍,軟件的資源消耗卻會同步增長,最終抵消硬件優(yōu)勢。
![]()
在大模型領(lǐng)域,這個悖論演化成了token的“攻防戰(zhàn)”,token單位成本每12個月降低一個量級,但token消耗總量和算力需求卻以同樣的速度指數(shù)級增長,形成了奇妙的動態(tài)平衡。
或許有人會問:推理階段token增長與算力需求是線性關(guān)系嗎?比如token增長10倍,算力需求也會同步增長10倍?
答案遠(yuǎn)比想象中復(fù)雜。因?yàn)楹饬繕?biāo)準(zhǔn)早已不是單一的算力,時(shí)間成本、單次任務(wù)的資源消耗、場景適配難度等因素都要納入考量,這已經(jīng)不是簡單的線性方程能求解的問題,也正是推理階段成為行業(yè)競爭焦點(diǎn)的核心原因。
![]()
![]()
GPT-5發(fā)布后,“略不及預(yù)期”的評價(jià)中,還夾雜著另一個疑問:為何OpenAI如此強(qiáng)調(diào)企業(yè)級應(yīng)用?是ToC端增長乏力,撐不起巨額研發(fā)投入了嗎?從數(shù)據(jù)和行業(yè)邏輯來看,這更像是一場深思熟慮的戰(zhàn)略傾斜。
先看ToC端的現(xiàn)狀:用戶增長速度雖仍可觀,年初周活用戶已達(dá)3億至4億,近期OpenAI CEO山姆·奧特曼透露已突破7億,GPT-5的發(fā)布無疑會進(jìn)一步助推增長。
但問題在于,當(dāng)用戶規(guī)模達(dá)到數(shù)十億級別時(shí),指數(shù)級增長的紅利必然會逐漸消退,更關(guān)鍵的是收入天花板;
![]()
以當(dāng)前7億周活計(jì)算,即便乘以較高的付費(fèi)轉(zhuǎn)化率,再疊加每月20至2200美元的付費(fèi)單價(jià),ToC端的收入規(guī)模也相對可控。
而大模型研發(fā)的投入堪稱“無底洞”,僅算力一項(xiàng)的支出就足以讓ToC收入相形見絀。這種收支失衡,迫使OpenAI必須從ToB市場尋找增量。
ToB端的優(yōu)勢恰恰在于高邊際收益和增長潛力。從OpenAI 2024年第二季度披露的截至2028年的收入預(yù)期來看,ToB業(yè)務(wù)是明確的增長主力。
![]()
為了搶占這一市場,OpenAI早已布局:成立專門的企業(yè)級應(yīng)用落地咨詢團(tuán)隊(duì),與政府及頭部企業(yè)簽訂大額合作訂單,每一步都在夯實(shí)ToB賽道的競爭力。
當(dāng)然,戰(zhàn)略傾斜不代表產(chǎn)品擺爛。GPT-5在用戶體驗(yàn)上的升級其實(shí)相當(dāng)務(wù)實(shí):減少模型“幻覺”提升信息準(zhǔn)確性,優(yōu)化路由機(jī)制提高響應(yīng)效率,摒棄過度諂媚的交互風(fēng)格回歸專業(yè)。
![]()
這些細(xì)節(jié)升級都讓模型在企業(yè)級場景的適配性更強(qiáng),也讓“ToB為主、ToC為輔”的戰(zhàn)略落地更有底氣。
從強(qiáng)化學(xué)習(xí)破解數(shù)據(jù)困局,到算力重心轉(zhuǎn)向推理,再到戰(zhàn)略押注企業(yè)級應(yīng)用,GPT-5的發(fā)布其實(shí)是AI行業(yè)發(fā)展邏輯的集中展現(xiàn)。
它告訴我們,大模型的競爭早已不是單一能力的比拼,而是技術(shù)突破、趨勢把握與商業(yè)戰(zhàn)略的綜合較量,這或許就是當(dāng)下AI行業(yè)最真實(shí)的進(jìn)化圖景。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.