Meta把Llama 2的權重直接扔進了GitHub倉庫,附帶一份允許商用的許可證。這對閉源玩家來說,相當于有人在你收費的高速公路旁邊修了一條免費八車道——還不限車型。
從"學術玩具"到"商用武器":許可證變了什么
Llama初代版本的許可證卡死了商用場景,開發者只能拿來發論文或做Demo。Llama 2的許可證刪掉了這條紅線,月活7億以下的產品可以直接用,超過的才需要單獨申請。
7億月活是個精心設計的門檻。它把Google、OpenAI自己攔在門外,但放過了絕大多數創業公司和中廠。Meta這招既賺了開源名聲,又避免直接資敵。
許可證里還有條隱藏條款:如果用Llama 2輸出的內容去訓練其他模型,那這個新模型也得開源。這像病毒式傳播的開源協議,逼著競爭對手要么裸奔,要么別碰Llama 2的數據。
微軟的算盤:Azure成了"開源模型超市"
Meta發布會選在微軟總部開,Llama 2同步上線Azure模型庫。這不是友情客串——微軟在OpenAI身上砸了100多億美元,現在轉頭擁抱開源,典型的"兩頭下注"。
對Azure用戶來說,現在可以在同一個控制臺里調OpenAI的GPT-4和Meta的Llama 2。微軟的角色從"OpenAI獨家經銷商"變成了"大模型菜市場",貨架上既有專柜奢侈品,也有平價白牌貨。
微軟CEO納德拉的表態很克制:「我們很高興成為Meta的首選合作伙伴。」沒提OpenAI,但每個字都在提醒市場——云廠商的核心資產是算力和分發渠道,不是某一家模型的獨家代理權。
參數矩陣:70億到700億的覆蓋戰術
Llama 2發布了7B、13B、70B三個版本,訓練數據比初代多了40%,上下文長度翻倍到4096個token(詞元)。70B版本在多項基準測試里追平了GPT-3.5,雖然還摸不到GPT-4,但勝在能私有化部署。
700億參數是開源社區能消化的上限。再往上走,推理成本會讓大多數公司破產。Meta內部其實訓了更大的模型,但沒放出來——開源是戰略,不是慈善。
訓練細節也公開了:2萬億token的預訓練數據,人類反饋強化學習(RLHF)的輪次比初代翻倍。Meta甚至發布了配套的安全微調版本Llama 2-Chat,專門用來生成"更禮貌、更拒絕有害請求"的輸出。
行業地震:誰睡不著,誰在偷笑
閉源廠商的定價權開始松動。OpenAI的GPT-3.5-turbo定價0.002美元/千token,但Llama 2 70B在AWS上的推理成本可以壓到更低——關鍵是數據不用出戶。
金融、醫療、政務這些對數據主權敏感的領域,終于有了不用給OpenAI送數據的選項。一家國內大模型公司的技術負責人私下吐槽:「我們之前花大價錢買GPU訓底座,現在Meta白送,壓力全轉到應用層了。」
但開源也不是萬能藥。Llama 2的論文承認,它在代碼生成和數學推理上仍明顯弱于GPT-4。Meta的解法很務實:不追求完美,先占住"夠用且免費"的生態位。
GitHub倉庫發布24小時內,Star數突破15萬。Hugging Face上的Llama 2模型卡片被fork了4萬多次,微調教程、量化方案、LangChain集成代碼像野草一樣長出來。這是閉源模型永遠買不到的網絡效應。
Meta AI負責人Yann LeCun在Twitter上發了張圖:Llama 2的下載按鈕旁邊,是一只羊駝(Llama的英文原意)踢腿的動圖。配文只有一個詞:「Run.」
沒人確定他讓誰跑——是讓開發者快跑起來用,還是讓競爭對手快跑逃命。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.