金磊 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
這一次,AI真的是快要砸掉我的飯碗了。
因?yàn)槿绻悻F(xiàn)在想根據(jù)NeurIPS 2025的最佳論文寫一篇公眾號文章,只需要把它丟給AI并且附上一句話:
幫我解讀這篇論文,并寫一個(gè)圖文并茂的微信公眾號推送來介紹這篇文章。
![]()
只需靜候幾分鐘,AI就水靈靈地把完整的微信公眾號科普文章給呈現(xiàn)了出來,來感受一下這個(gè)feel(上下滑動瀏覽):
![]()
不得不說啊,這個(gè)AI從標(biāo)題開始就真的把最最最重要的關(guān)鍵信息“NeurIPS 2025最佳論文”精準(zhǔn)抓了出來。
并且“Gates一下”,更是把名詞動詞化,是有點(diǎn)語言編輯功底在身上的。
回頭細(xì)看這個(gè)AI處理的過程。
首先,它會根據(jù)這篇論文的內(nèi)容,先處理文字的部分,將文章分為了引言、核心問題、破局之道、實(shí)驗(yàn)結(jié)果、深入分析、結(jié)論與展望這六大部分,是符合一篇論文解讀文章的邏輯。
然后AI會把論文中要引用的圖片和表格進(jìn)行適當(dāng)?shù)牟眉艉蜆?biāo)注,并插進(jìn)文章里面,還會在圖片下方附上圖注:

一氣呵成,真的是“文字+圖片+排版”一氣呵成。
那么這到底是何許AI是也?
不賣關(guān)子,它就是智譜最新升級的新一代視覺推理模型——GLM-4.6V
![]()
在深度體驗(yàn)一波之后,我們發(fā)現(xiàn)寫圖文并茂的公眾號推文,還只是GLM-4.6V能力的一隅。
接下來,老規(guī)矩,一波實(shí)測,走起~
學(xué)生黨看論文,更方便了
首先來到智譜的官網(wǎng)(https://chat.z.ai/),在左上方模型下拉菜單中選擇GLM-4.6V。

然后根據(jù)任務(wù)的需求,我們可以在輸入框下方快速選擇任務(wù)類型,也可以在工具選項(xiàng)中勾選圖像識別、圖像處理、圖像搜索或購物搜索等工具。
像剛才我們寫公眾號文章時(shí),就選擇了“文檔智讀”功能(會默認(rèn)勾選“圖像處理”工具)。

研究論文、報(bào)告,更方便了
同樣是在“文檔智讀”功能下,看論文這件事已經(jīng)變得太便捷了。
例如我們上傳Transformer和Mamba兩篇論文,然后附上一句Prompt:
結(jié)合這兩篇論文的圖表,對比一下Transformer和Mamba模型的異同,并幫我思考一下大模型架構(gòu)下一步該如何發(fā)展?
![]()
同樣是幾分鐘后,一份圖文并茂的對比分析就誕生了(上下滑動瀏覽):
![]()
可以看到,GLM-4.6V先是對Transformer和Mamba架構(gòu)分別做了核心特點(diǎn)的介紹;然后以表格和圖文的形式對二者進(jìn)行了關(guān)鍵維度上的對比;最后也是對大模型架構(gòu)的未來發(fā)展方向做出了總結(jié)。
如此功能之下,不僅僅是對比看論文,像是研究、分析報(bào)告這類任務(wù)也會派上大用場。
這一次,我直接“喂”給GLM-4.6V四份財(cái)報(bào)(蘋果、谷歌、亞馬遜和Meta):
幫我對比這四家公司Q3財(cái)報(bào),圖表形式做分析。
![]()
GLM-4.6V的思考過程同樣是調(diào)取了各個(gè)財(cái)報(bào)中的關(guān)鍵圖表和數(shù)據(jù),然后先是匯總成了一份對比表格,再對關(guān)鍵指標(biāo)做了逐一的解析,最終給出了關(guān)鍵性結(jié)論。
甚至你可以不用提供任何資料,只需要一句話就能生成報(bào)告:
搜索一下最近新出“豆包AI手機(jī)”,并生成圖文并茂的報(bào)告。
![]()
由此可見,在GLM-4.6V的加持之下,解讀論文、報(bào)告,統(tǒng)統(tǒng)都變成了一句話的事兒。
一張圖復(fù)刻B站網(wǎng)頁版
GLM-4.6V還有一個(gè)特別有意思的功能,它只需要看一眼網(wǎng)站,就能高度復(fù)刻出來!
我們先截取B站首頁的截圖:
![]()
然后開啟“圖片識別”和“圖片處理”兩個(gè)工具,并簡單一句話下達(dá)指令:
復(fù)刻這個(gè)網(wǎng)站,網(wǎng)站里包含的圖片也要復(fù)刻出來。
然后GLM-4.6V就開始唰唰唰地“敲代碼”:

同樣是幾分鐘的時(shí)間,一個(gè)高度還原B站首頁的完整HTML和CSS代碼就搞定了:
![]()
我們還可以對初始結(jié)果做進(jìn)一步的優(yōu)化,例如來上一句:
把主題變成深色模式。
![]()
再細(xì)如頁面里的排版布局,統(tǒng)統(tǒng)都可以通過自然語言的方式來做調(diào)整。
不得不說,這種玩法可以給前端程序員省了不少的工作量;而且還有個(gè)福利哦——價(jià)格更便宜了
GLM-4.6V系列相較于GLM-4.5V降價(jià)50%,API 調(diào)用價(jià)格低至輸入 1 元/百萬tokens輸出 3 元/百萬 tokens
![]()
而且據(jù)說GLM-4.6V已經(jīng)進(jìn)入到智譜的Coding Plan套餐里嘍~
長視頻也是能hold住
在文檔、圖片之后,另一種多模態(tài)——視頻,GLM-4.6V也能處理。
我們以Ilya在多倫多大學(xué)的一段演講為例:
![]()
視頻地址:https://mp.weixin.qq.com/s/Lboi50dy3SZoODxAJUheBQ
這一次,我們點(diǎn)擊輸入框下面的“視頻理解”功能,然后讓GLM-4.6V來對視頻內(nèi)容做總結(jié):
![]()
10分鐘時(shí)長的視頻內(nèi)容,GLM-4.6V只需要幾十秒的時(shí)間就能將其總結(jié)到位:
![]()
進(jìn)一步的,你還可以要求GLM-4.6V來翻譯視頻中Ilya演講的所有內(nèi)容:
![]()
以后看AI大佬英文演講的視頻,真的是方便太多了。
萬物皆可GLM-4.6V
除了我們上面提到的案例之外,還有好多好多真實(shí)場景都能用的上GLM-4.6V.
例如想解一下一道考研數(shù)學(xué)真題的解法,咱們就把題目截圖丟給它:
幫我解答這道題。
![]()
GLM-4.6V會很快分析解題的詳細(xì)過程并給出正確答案:C。
![]()
再如你看到一張可視化的圖表,想要把它轉(zhuǎn)換成數(shù)據(jù)
![]()
同樣的操作,同樣一句話,就可以完成了:
![]()
值得一提的是,哪怕是手機(jī)拍照拍下來的圖片、表格等,也都是可以一鍵OCR的哦~
包括古文手稿
![]()
GLM-4.6V知道需要按照從右到左、從上到下的順序來閱讀:
![]()
還有視覺任務(wù)中經(jīng)常用的目標(biāo)檢測,在GLM-4.6V這里也是可以搞定的。
例如我們給一張貓咪們的合影,然后Prompt如下:
識別圖中所有貓的品種。請以合法的JSON格式返回結(jié)果,結(jié)果是一個(gè)list,每一個(gè)list元素對應(yīng)一個(gè)目標(biāo)檢測結(jié)果dict,dict的key由label、bbox_2d組成,值分別為檢測到的貓的品種和結(jié)果坐標(biāo)框。例如:[
{‘label’: ‘金漸層-1’, ‘bbox_2d’: [1,2,3,4]}, {‘label’: ‘金漸層-2’, ‘bbox_2d’: [4,5,6,7]}]
![]()
不一會兒的功夫,GLM-4.6V就會框出所有貓咪:
{“l(fā)abel”: “虎斑貓-1”, “bbox_2d”: [95,152,192,825]},{“l(fā)abel”: “虎斑貓-2”, “bbox_2d”: [185,332,310,852]},{“l(fā)abel”: “暹羅貓-1”, “bbox_2d”: [295,352,428,902]},{“l(fā)abel”: “美短-1”, “bbox_2d”: [415,520,508,922]},{“l(fā)abel”: “緬因貓-1”, “bbox_2d”: [498,262,603,852]},{“l(fā)abel”: “英短-1”, “bbox_2d”: [603,452,697,872]},{“l(fā)abel”: “挪威森林貓-1”, “bbox_2d”: [685,120,797,832]},{“l(fā)abel”: “虎斑貓-3”, “bbox_2d”: [802,482,882,832]}
再經(jīng)過渲染,我們就得到了經(jīng)典的目標(biāo)檢測效果:
![]()
已經(jīng)是開源里的SOTA了
從整體實(shí)測過程和結(jié)果來看,GLM-4.6V在體感上是非常絲滑的。
而之所以如此,也離不開它背后自身實(shí)力的迭代升級。
這次智譜升級的GLM-4.6V分為了兩個(gè)版本,分別是:
- GLM-4.6V(106B-A12B):面向云端與高性能集群場景的基礎(chǔ)版
- GLM-4.6V-Flash(9B):面向本地部署與低延遲應(yīng)用的輕量版
智譜不僅將這個(gè)版本的視覺推理模型的上下文窗口大小提升到了128K tokens,在MMBench、MathVista、OCRBench等30多個(gè)主流多模態(tài)評測Benchmark中,也是取得了同級別SOTA的結(jié)果!
![]()
其中9B版本的GLM-4.6V-Flash整體表現(xiàn)超過Qwen3-VL-8B,106B參數(shù)12B激活的GLM-4.6V表現(xiàn)比肩2倍參數(shù)量的Qwen3-VL-235B。
除了評測榜單結(jié)果之外,智譜還將GLM-4.6V背后的技術(shù)細(xì)節(jié)也亮了出來——
首次在模型架構(gòu)中將Function Call(工具調(diào)用)能力原生融入視覺模型,打通從“視覺感知”到“可執(zhí)行行動”(Action)的鏈路,為真實(shí)業(yè)務(wù)場景中的多模態(tài) Agent 提供統(tǒng)一的技術(shù)底座。
評測結(jié)果、技術(shù)實(shí)力固然重要,但到了AI發(fā)展的現(xiàn)階段,到底實(shí)不實(shí)用、好不好用才是真正能讓AI應(yīng)用殺出自己一片天地的護(hù)城河。
從這次深度實(shí)測結(jié)果來看,GLM-4.6V,絕對是做到了這一點(diǎn)的那個(gè)AI。
最后,如果小伙伴對GLM-4.6V感興趣,鏈接就放下面了,趕緊去體驗(yàn)吧~
GLM-4.6V地址:
https://chat.z.ai
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.