微軟與谷歌周四同步發布新一代AI模型,進一步加碼多模態能力布局。微軟推出自研MAI系列基礎模型,覆蓋語音轉寫、語音生成和圖像生成,并加速融入自家產品體系;谷歌則發布Gemma 4開源模型,主打本地運行和多模態能力,并將許可切換至更開放的Apache 2.0協議。
微軟:三款MAI模型覆蓋語音與圖像能力
微軟推出的“世界級”自研MAI模型,一共包括三款。
首先是MAI-Transcribe-1,這是一款“最先進”的語音轉文本模型,該模型在全部25種語言上均優于OpenAI的Whisper-large-v3,在25種中有22種優于Google的Gemini 3.1 Flash,在15種語言上優于ElevenLabs的Scribe v2和OpenAI的GPT-Transcribe。MAI-Transcribe-1的起步價格為每小時0.36美元。
該模型采用基于Transformer的文本解碼器和雙向音頻編碼器,支持MP3、WAV和FLAC格式,最大文件200MB。微軟表示,其批量轉寫速度是Azure Fast現有方案的2.5倍。說話人分離、上下文偏置和流式處理功能將“很快推出”。目前,該模型已在Copilot語音模式和Microsoft Teams中測試,用于對話轉寫,這也顯示出微軟正快速用自研模型替代外部或舊有方案。
其次是MAI-Voice-1,這是一款新的語音生成模型,只需1秒即可生成60秒的音頻,并在長文本中保持說話人一致性,用戶只需幾秒音頻即可創建自定義聲音。同時,它還支持在Microsoft Foundry中通過短音頻樣本創建定制語音。MAI-Voice-1的起步價格為每100萬個字符22美元。
最后是MAI-Image-2,這是一款更快的文生圖模型,目前已經開始在Copilot中上線,接下來將陸續應用于Bing和PowerPoint。MAI-Image-2的價格為文本輸入每100萬個詞元(Token)收費5美元,圖像輸出每100萬個詞元收費33美元。
如今,這三款模型已全部在Microsoft Foundry上線,其中語音轉寫和語音生成模型也可在MAI Playground中使用。這些模型由微軟的MAI超級智能團隊開發,該團隊由Microsoft AI首席執行官穆斯塔法·蘇萊曼(Mustafa Suleyman)領導,于2025年11月成立并對外公布。
微軟表示:
“我們正在快速部署這些頂級模型,用于支持自家的消費者和商業產品。很快你將會在Foundry以及微軟各類產品和體驗中看到更多模型。”微軟加速擺脫依賴:自研模型體系逐步成型
媒體分析稱,這一發布表明,盡管微軟仍與OpenAI保持緊密合作,但公司正持續推進構建自有多模態AI模型體系,并與其他AI研究機構展開競爭。
這些模型的推出,與微軟與OpenAI之間的一次關鍵合同調整密切相關。在2025年10月之前,微軟在合同上被限制,無法獨立推進通用人工智能的研發。2019年的原始協議規定,微軟以提供云基礎設施為交換,獲得OpenAI模型的授權。但當OpenAI開始與軟銀等其他合作伙伴擴大算力合作時,微軟重新談判了協議。
蘇萊曼在2025年12月接受采訪時表示:“直到幾周前,微軟在合同上是不被允許獨立推進AGI或超級智能的。”新協議使微軟可以自主開發前沿模型,同時仍保留到2032年的OpenAI模型授權。
不過,蘇萊曼在周四接受媒體采訪時重申,微軟仍將繼續與OpenAI保持合作關系。但他也向媒體表示,近期對雙方合作關系的重新談判,使微軟能夠真正推進其超級智能研究。
“與OpenAI的合作沒有改變,我們至少會合作到2032年,甚至更久。他們是非常優秀的合作伙伴。”
同時,微軟也通過Foundry提供Anthropic Claude模型,將自身定位為“平臺中的平臺”。但其戰略意圖很清晰:微軟正在打造獨立能力。
微軟已向OpenAI投資超過130億美元,并通過一項多年期合作,將其模型部署在自家多款產品中。微軟在芯片領域也采取類似策略:既自主研發,也同時采購外部供應商的產品。
分析稱,這一發布時點對微軟而言頗為關鍵。公司股價剛經歷自2008年金融危機以來最差的一個季度,投資者正越來越迫切地要求看到,數千億美元的AI基礎設施投入如何轉化為實際收入。這些模型——定價激進,同時有助于降低微軟自身成本——成為蘇萊曼對此壓力的首次回應。
從競爭格局看,這次發布讓微軟在多個方向同時發力。MAI-Transcribe-1直接挑戰OpenAI Whisper在開源社區的地位,也對Google Gemini形成壓力;MAI-Voice-1則對標ElevenLabs等語音AI公司;加上Foundry統一API入口,形成強大的分發優勢。
蘇萊曼表示:
“我們現在是僅次于OpenAI和Gemini的前三實驗室。”谷歌:Gemma 4開源模型強化本地AI與開發者生態
“我們要做到所有云廠商里最便宜,包括亞馬遜和谷歌,這是有意識的決定。”
谷歌推出的Gemma 4開源模型采用Apache 2.0許可,而不再使用此前自定義的Gemma許可協議。谷歌表示,這些模型具備高級推理能力、代理式工作流、代碼生成,以及視覺和音頻生成能力,并提供四種不同版本,針對本地運行進行了優化,甚至可以運行在“數十億臺安卓設備”上。
谷歌表示:
“Gemma 4基于與Gemini 3相同的世界級研究和技術,是目前你可以在本地硬件上運行的能力最強的一系列模型。它們與我們的Gemini模型形成互補,為開發者提供業內最強大的開源與專有工具組合。”四種版本:從手機到GPU全覆蓋
“這種開源許可為開發者提供了完整的靈活性和數字主權基礎,讓你可以完全掌控數據、基礎設施和模型。你可以在任何環境中自由構建并安全部署,無論是在本地還是云端。”
四種不同版本主要區別在于參數規模。針對邊緣設備(包括智能手機),公司推出了20億和40億參數的“Effective”模型,更注重多模態能力和低延遲處理,適用于移動設備和物聯網設備。針對更強大的設備,則提供了260億參數的“Mixture of Experts”(專家混合)模型,以及310億參數的“Dense”(稠密)模型,旨在運行于消費級GPU上,可用于驅動IDE、編程助手以及代理式工作流。這些模型還支持完全離線運行。
![]()
谷歌表示,在Gemma 4上實現了“前所未有的單位參數智能水平”。為佐證這一說法,公司指出,Gemma 4中310億和260億參數版本在Arena AI文本排行榜上分別位列第三和第六,擊敗了規模是其20倍的模型。
![]()
所有這些模型都可以處理視頻和圖像,因此非常適合用于光學字符識別等任務。較小的兩個模型還支持處理音頻輸入并理解語音。此外,谷歌表示,Gemma 4系列支持離線代碼生成,這意味著用戶可以在沒有互聯網連接的情況下進行編程(例如進行“vibe coding”)。這些模型還支持超過140種語言。
谷歌的Gemma 4開源模型可以在多個平臺下載,包括Hugging Face、Kaggle和Ollama。谷歌強調:
“這些模型在基礎設施安全方面,遵循與我們專有模型相同的嚴格安全協議。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.