<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      GLM-5深夜登場,這是國產(chǎn)開源模型首次逼平Claude Opus 4.5。

      0
      分享至

         深夜,GLM-5來了。

         還是老樣子,發(fā)布即開源。

        

         而且前幾天,OpenRouter平臺不是有一個Pony Alpha的匿名模型很火嗎。

        

         大家一度在猜是DeepSeek V4還是GLM-5,結(jié)果今天基本答案也揭曉了。

         這大馬,基本就是明示了。

        

         到了今天,2026年的主旋律我覺得真的就已經(jīng)就定下了,無論是國內(nèi)還是海外。

         Coding與視頻齊飛,人類共AI一色。

         這應(yīng)該就是2026年AI領(lǐng)域最核心的兩個主航道了,在這兩之上,其實就是Agent。

         這幾天真的感覺過年一樣,太熱鬧了,上周GPT-5.3 codex和Claude Opus 4.6中門對狙,后腳Seedance 2.0席卷全球,而現(xiàn)在,戰(zhàn)場又拉回了Coding這邊。

         GLM-5,作為一個全新的大版本號,我想說,升級幅度還是很大的,真的可以比肩Claude Opus 4.5,我不開玩笑。

         我其實已經(jīng)提前三天拿到了GLM-5的API,這幾天在我用Codex開發(fā)的時候,也把GLM-5同步接入到了Claude code里同步開發(fā)進(jìn)行對比。

         雖然作為智譜一直以來的擁簇,很想吹一下GLM-5跟Seedance 2.0一樣全球第一,但是我覺得還是實事求是。

         在我這幾天的使用過程中,我個人體感是,GLM-5跟GPT-5.3-codex這種變態(tài)肯定還是有一些距離(后面有case會展示),但是在真正產(chǎn)品的開發(fā)和解決BUG的能力上,我覺得是能摸一下GPT-5.2-codex和Claude Opus 4.5了。

         不要覺得這好像是一件很容易的事,Coding國內(nèi)落后的其實一直都比較遠(yuǎn),能追上Opus 4.5的能力,其實已經(jīng)非常非常非常牛逼了。

        前幾天,在GPT-5.3-codex和Opus 4.6中門對狙的文章里,我在評論區(qū)里評論說,要是DeepSeek能趕上Opus 4.5,我高低得給它磕兩個。

        

        我是沒想到,我現(xiàn)在可能得給智譜磕兩個了。

        非常坦誠的講,在我日常開發(fā)過程中,我可能還是會選擇GPT-5.3-codex + codex的組合,但是,我也深刻的清楚,并不是所有人,都有條件去買ChatGPT的會員的。

        那如果你用不了GPT-5.3-codex的話,那我無比真誠的建議你,不用猶豫,就用GLM-5就行,這就是國內(nèi),你現(xiàn)在能用上的,最好、最棒、性價比最高的大模型。

        Claude Code + GLM-5,是你無需魔法,國內(nèi)可用,最低門檻體驗AI Coding魅力的組合。

        先老規(guī)矩,看下跑分和性能。

        首先,GLM-5從355B(32B激活)擴(kuò)展到744B參數(shù)(40B激活),參數(shù)量大了一倍,智能提升確實挺多,而且成本沒有加特別多。

        跑分上,目前在Artificial Analysis上僅次于那兩個大爹,開源第1。

        

        然后整體能力上。

        

        相較于GLM-4.7,GLM-5全線能力基本都有了大幅提升,而且逼近Opus 4.5。

        有一個比較有特點的,就是BrowseComp基準(zhǔn),這個我之前也說過,測的是Agent在網(wǎng)上搜索信息的能力,GLM-5得分75.9,直接超第二名普通的GPT-5.2有10個點,這個已經(jīng)非常強(qiáng)了。

        而另外兩個最頂級的模型沒放在里面,一個是GPT-5.2 Pro得分是77.9,Opus 4.6得分是84,GLM-5其實已經(jīng)逼近最一線的水平了,能跟GPT-5.2 Pro打個平手,這事本身就挺強(qiáng)的了。

        然后其他的,比如現(xiàn)實場景下改倉庫代碼的測試機(jī)SWE-bench,終端環(huán)境中agent能力的基準(zhǔn)Terminal-Bench 2.0,agent工具使用的τ2-Bench,還有測試模型調(diào)用MCP能力的MCP-Atlas基準(zhǔn)上,基本比Opus都只差那么臨門一腳了。

        說實話,一個國產(chǎn)模型,還開源出去,能到這個水平,已經(jīng)非常非常讓人自豪了。

        同時在我看好的系統(tǒng)工程能力、長任務(wù)能力,在跑分上也能得到印證。

        比如下面圖上的Long-horizon基準(zhǔn),也就是長鏈條復(fù)雜任務(wù),就能充分體現(xiàn)模型自主進(jìn)行Agent長程多步規(guī)劃和執(zhí)行的能力。

        

        這個跑分看下來就很清晰了,也和我實測下來的感受一致,在真正需要做大開發(fā)的時候,它的長程任務(wù)上,確實是對標(biāo)Opus 4.5的存在。

        GLM-5的上下文窗口和GLM-4.7一樣,目前還是200k的上下文窗口,輸出是128K。

        不過GLM-5有一個非常離譜的一點,就是這玩意我試下來,非常的省token,就是干活的感覺,非常精準(zhǔn),跟GPT-5.3-codex有的一拼,這點有多重要用過Opus 4.6的都懂,那上下文和消耗量,簡直了。

        然后就是價格上,一個是API價格,真的,國產(chǎn)模型,這價格便宜的讓人心疼。

        

        Opus 4.5和4.6,都是$5/$25每百萬token(輸入/輸出)。

        而GLM-5大概只有Claude的七分之一。

        很香,真的香。

        另一方面那自然是不得不提的Coding Plan了,也是現(xiàn)在玩Vibe Coding的主流用法,基本都是買包月套餐,對標(biāo)Claude Max和ChatGPT Pro的。

        

        價格是Claude Max套餐的2/3,Token額度是他們的3倍。

        甚至因為賣的過于火爆,算力不夠,前兩個套餐額度,直接被搶空了。。。

        沒錯,一個包月套餐,被搶空了。。。

        這個太離譜了。

        白天的時候大家可以蹲一蹲,網(wǎng)址在此:

        https://bigmodel.cn/glm-coding

        當(dāng)你有了GLM-5的權(quán)限之后,想用的話,我最推薦的還是在Claude Code里面用。

        因為Claude Code就是目前確實最通用的Coding Agent產(chǎn)品,Codex是單純的例外,主要跟GPT適配的太好。

        而在Claude code里接入GLM-5挺簡單的。

        這一點智譜做的很好,他們做了一個Coding Tool Helper工具就是可以快速將你的GLM編碼套餐加載到你使用的編碼工具中。

        直接打開終端,然后輸入:

        npx@z_ai/coding-helper

        你就正常登錄。

        

        目前支持的編碼工具 Claude Code、OpenCode、Crush、Factory Droid。

        

        跟著配置就好,配置好以后,我們運(yùn)行Claude Code。

        你就可以使用GLM-5了。

        

        我也做了幾個case,給大家直觀的感受一下,GLM-5的能力。

        前天我拿到GLM-5的資格的時候,正好有個需求要開發(fā),就是一個全平臺分發(fā)文章的需求。

        做自媒體的朋友們應(yīng)該知道,文章寫完不是真正的結(jié)束,而是剛剛開始。

        我一般寫完微信公眾號文章需要把文章同步分發(fā)到其他平臺,這是個很大的工作量,而且有的編輯器還不一樣,會出現(xiàn)亂碼,文本格式丟失問題,我真。。。

        

        之前是用一個開源工具自己改的,但是其實沒有那么好用,所以最近其實一直想自己開發(fā)一個。

        所以,我當(dāng)時就想,不如用GLM-5 Coding一個這樣的全平臺內(nèi)容同步分發(fā)的這么個小產(chǎn)品吧。

        開發(fā)完以后,發(fā)現(xiàn)效果居然還不錯。

        就是下面圖中的這樣,大概的功能就是把我微信公眾號的文章鏈接放進(jìn)去,然后點擊想要同步的平臺,就可以同步過去。

        

        當(dāng)時開發(fā)的時候其實Prompt給的巨簡單。

        點擊同步后,打開目標(biāo)平臺發(fā)布頁面,自動填充內(nèi)容

        當(dāng)時給過去以后,GLM-5的體感上,其實就比之前GLM-4.7強(qiáng)很多了。

        按慣例,他先提供給我了一些關(guān)鍵設(shè)計讓我去選擇。

        我也秉持著先開發(fā)一個最小MVP的原則去的。

        

        所以選的都比較謹(jǐn)慎。

        接著GLM-5就給了超詳細(xì)的規(guī)劃。

        

        速度不慢,很快就搞定了。

        總體的完成度和實用性很好,不過因為最開始最小MVP的原則,分發(fā)的平臺有點少,后續(xù)我直接讓他添加其他的平臺,兩輪就完成了。

        

        整體其實都還可以,但是在使用的時候,遇到了一個BUG。

        就是我放入公眾號鏈接后,讓他提取標(biāo)題、封面、正文,他標(biāo)題和封面倒是可以成功提取出來,但是關(guān)鍵部分,也就是正文提取內(nèi)容總是不全,會缺失一大截,圖片也獲取不到。

        

        改了兩三輪,還是有BUG,然后我上Opus 4.5,居然也沒改成功。。。

        最后打開了GPT-5.3-codex,一輪,完成了。。。

        GLM-5跟Opus 4.5的差距沒那么大,其實是有道理的。

        說實話,主要還是,GPT-5.3-codex這玩意真的強(qiáng)的有點變態(tài)。

        所以這個case,其實就是GLM-5做的整體規(guī)劃和方案設(shè)計,然后最后遇到一個棘手的BUG上Codex解決的,整體體驗上,我錄制了一遍效果展示的視頻,總體體驗下來還是挺不錯的。

        

        然后還有另一個我覺得特別好玩的case。

        就是,看到公司同事終于在用電腦模擬器,打歡樂斗地主。。。

        當(dāng)時他吐槽說,要是有記牌器就好了。。。

        于是,我就想,這是個好思路,雖然不會幫他作弊,但是可以試一下大模型的能力。

        上GLM-5試了一下,這個開發(fā)過程,還真的有點意思。

        用的提示詞很簡單,就一句話。

        “我正在我的電腦上玩歡樂斗地主PC模擬器版本,幫我寫一個記牌插件?!?/strong>

        反正我是完全不知道怎么實現(xiàn),更不知道怎么跟PC模擬器打通。。。

        我就說了這么一個需求,GLM-5,他會自己進(jìn)行更深入的咨詢,包括識別方式、技術(shù)路線、功能需求,都會一一和我確認(rèn)。

        比如在實現(xiàn)方式上,他提供自動識別記牌、手動點擊記牌等方案讓我選擇,每個方案還會給出不同的技術(shù)實現(xiàn)路線。

        

        還有功能需求的確定,我這里選擇了基礎(chǔ)記牌。

        

        第一輪對話下來,記牌器整體框架都搭建好了。

        雖然我選擇的是自動識別模式,但他很貼心地把自動開發(fā)和手動開發(fā)兩種模式都做了。

        

        手動模式第一輪其實就直接開發(fā)完了,就可以用了。

        它的使用邏輯是需要我自己去看對方出什么牌,我就點擊那張牌,牌數(shù)會自動減一。

        但是這個邏輯太蠢了,一點都不自動,一點也不AI。

        對方打一個牌,我還得手動點點點,這也太呆逼了。

        所以我還是想要用自動識別模式,但第一輪對話后自動識別功能并沒成功。

        他這里自動識別的操作邏輯是這樣的。

        游戲開始的時候,我手動勾選出牌區(qū)域,他就會自動識別這個區(qū)域出的所有牌,并自動記牌。

        

        但實際上,我選中出牌區(qū)域后,它沒法識別出的牌。明明這邊都打起來了,它這邊一直等待識別。。。

        

        我讓它進(jìn)一步修改。但是這樣的bug它并沒有一次改出來,改了一版后同樣報錯。

        這個時候,它自己選擇添加了調(diào)試功能。

        我看了一下,應(yīng)該是這個功能實現(xiàn)的鏈路主要有兩部分,屏幕勾選區(qū)域截圖,截圖撲克牌識別,所以他需要調(diào)試確定哪個環(huán)節(jié)出了問題。

        

        這一步,可能是模擬器的原因,還涉及到比較復(fù)雜的跟屏幕的交互和監(jiān)控,所以我得幫他一起測試一下。

        他顯示出我勾選區(qū)域的截圖,也有OCR結(jié)果,這樣我一下就能明白到底是哪個環(huán)節(jié)出了問題。

        然后我就發(fā)現(xiàn),每隔半秒截圖的功能沒問題,核心問題是,OCR一直識別不出結(jié)果。

        bug找到了,后面的活就方便了,我就交給他直接搞了。

        GLM-5自己開發(fā)了一套方案,他給出的識別方案是這樣的,給每張牌都上傳模板。

        就像這樣。

        

        然后他會對游戲頁面截圖進(jìn)行灰度處理、二值化,然后和模板進(jìn)行模式匹配,從而實現(xiàn)識別。

        這個灰度處理和二值化,說實話我沒聽懂,我也怕GLM-5給我的不是最優(yōu)解,所以打開了Opus 4.6和GPT-5.3-codex,讓他們也同時出一套解決方案看看有沒有更優(yōu)解。

        沒想到跟GLM-5出的方案,是一模一樣的,搞得還真沒毛病。

        這突然一下顯得我有點小肚雞腸,不信任GLM-5了= =

        模板處理完之后,很快,他就把這個系統(tǒng)開發(fā)完了。

        由于我注冊的是新號,估計新手村對面是人機(jī),出牌特別快。我本來還擔(dān)心識別速度會跟不上。

        沒想到,識別效果出乎意料的好。除了大小王識別有點問題,其他全都能準(zhǔn)確識別,哪怕是接連出順子,也能精準(zhǔn)識別。

        

        相當(dāng)牛逼了。。。

        要知道,這真的不是那種普通的前端網(wǎng)頁,這個實現(xiàn)方式,還是稍微有那么點復(fù)雜的。

        GLM-5,完成的非常的好。

        大小王的識別問題我初步想了一下,是因為上傳的模板中,字母是一樣的,只是顏色不一樣。

        圖片經(jīng)過灰度處理后大小王不就一樣了嗎,那肯定分不清。不過大小王還是比較好記的,所以也沒管這個。

        而且,這是我一兩個小時不到就做出來的東西,而且是已經(jīng)可以實戰(zhàn)用上的東西,這個效率,還是相當(dāng)恐怖的。。。

        同時,這里我也提醒大家上網(wǎng)打牌的時候,特別是現(xiàn)在這個階段,在網(wǎng)上用真錢去做一些游戲的時候,真的要謹(jǐn)慎一點,因為你不知道對面會不會像我一樣,隨手Vibe Coding一個外掛。。。

        除了這兩個之外,我還隨手,復(fù)刻了一個QQ農(nóng)場。

        

        而且還有很多細(xì)節(jié),比如如果我不收已經(jīng)熟了的作物他會枯萎,然后農(nóng)場里還會隨機(jī)長出雜草、蟲子。

        相當(dāng)有意思。

        在數(shù)據(jù)存儲上,還知道用瀏覽器LocalStorage作為數(shù)據(jù)存儲,這是一個典型的前端單機(jī)游戲存儲方案,很適合這種輕量級項目,大概的流程就是下面這個樣子。

        

        而且這個QQ農(nóng)場消耗的token,也就十三萬。。。

        

        太離譜了。

        從這些case其實已經(jīng)非常客觀的能看出來,GLM-5的開發(fā)能力,還是很強(qiáng)的,在一些規(guī)劃、架構(gòu)能力上,是真的可以比肩Opus 4.5的,雖然在精準(zhǔn)的BUG修改上,離現(xiàn)在最變態(tài)的GPT-5.3-codex還有一些差距,但是我已經(jīng)非常非常開心了。

        而且還有個場景,GLM-5做的也很好,就是構(gòu)建Skills。

        這個其實也挺考驗?zāi)P偷睦斫夂蛨?zhí)行能力的。

        我很喜歡用咱們的老演員yt-dlp測試GLM-5打包Skills的能力。

        幫我把這個開源工具h(yuǎn)ttps://github.com/yt-dlp/yt-dlp打包成一個Skill,只要我后續(xù)給出視頻鏈接,就可以幫我下載視頻。

        GLM-5封裝的基本沒有任何問題,一輪效果,B站視頻就能成功下載了。

        

        而下載youtube視頻,它也精準(zhǔn)的提出了,需要我給一個Cookies,他才能幫我下載,我依稀記得,當(dāng)時用Opus 4.5打包這個Skills,對話了6、7輪,改了N版,他也沒告訴我要Cookies這事,就在那自己傻逼兮兮的告訴我改好了,可以下了,一下又報錯。。。

        

        看著此情此景,回想半年前。

        那時候,如果你問我,國產(chǎn)大模型能不能在Coding領(lǐng)域跟OpenAI和Anthropic正面剛,我會說很難。

        差距太大了,不是一點半點,是那種讓人絕望的差距。

        但現(xiàn)在,GLM-5出來了,確實能摸到Opus 4.5的水平。雖然跟最新的Opus 4.6和GPT-5.3-codex還有差距,但這個差距已經(jīng)從代差縮小到了可以追趕的范圍。

        這是一個很重要的變化。

        而且更重要的是,GLM-5是開源的,價格更是Claude的N分之1。

        能力接近,開源免費(fèi),價格便宜。

        而開源,更是意味著,B端能用上,企業(yè)能用上。

        AI編程這件事,在國內(nèi),門檻真的,正在急劇降低。

        以前你想用頂級的AI編程能力,得買ChatGPT的會員,得有魔法,得付得起那個價格。

        現(xiàn)在不用了。

        GLM-5給了你一個平替選擇,雖然在全球領(lǐng)域,他距離那個老變態(tài),他還不是最好的,但已經(jīng)是躋身T1行列了,而且人人也都能用得起。

        這會讓更多人開始嘗試AI編程,會讓更多人感受到AI的魅力。

        而當(dāng)更多人用起來之后,社區(qū)會更活躍,反饋會更多,模型會迭代更快。

        這是一個正向循環(huán)。

        這也代表,我們在人才、在算力、在資金各方面都缺少的地不是,是能追上的。

        當(dāng)然,追上不代表勝利。

        OpenAI和Anthropic還在快速迭代,下一個版本可能又把差距拉開。

        但至少,我們已經(jīng)進(jìn)入了同一個賽道,在同一個維度上競爭。

        這就是進(jìn)步。

        我非常非常推薦大家,去試試GLM-5吧,真的還不錯。

        站在今天這個節(jié)點,我其實很想說跟馮驥一樣的話:

        我真的很慶幸,這個開源模型。

        來自智譜,來自中國。

        在ds和sd之后的另外一個Coding世界里,也有了中國身位。

        惟愿。

        國運(yùn)昌隆。

        以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉(zhuǎn)發(fā)三連吧,如果想第一時間收到推送,也可以給我個星標(biāo)?~謝謝你看我的文章,我們,下次再見。

        >/ 作者:卡茲克、林機(jī)夢逗、tashi

        >/ 投稿或爆料,請聯(lián)系郵箱:wzglyay@virxact.com

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      女護(hù)士夜班照顧植物人,半年后被發(fā)現(xiàn)有身孕,領(lǐng)導(dǎo)看監(jiān)控:喪盡天良

      女護(hù)士夜班照顧植物人,半年后被發(fā)現(xiàn)有身孕,領(lǐng)導(dǎo)看監(jiān)控:喪盡天良

      流螢敘情
      2025-08-05 18:53:56
      委內(nèi)瑞拉徹底炸鍋:97天的沉默,終于變成怒吼

      委內(nèi)瑞拉徹底炸鍋:97天的沉默,終于變成怒吼

      策略述
      2026-04-12 16:55:28
      一年了,采茶女們依舊吃的是白水掛面,喝的是污水

      一年了,采茶女們依舊吃的是白水掛面,喝的是污水

      莫蒂的大世界
      2026-04-10 18:56:46
      賈淺淺被查!爆料人親述:本來在查她爹,沒想到她比尿體詩更膽大

      賈淺淺被查!爆料人親述:本來在查她爹,沒想到她比尿體詩更膽大

      娛樂圈見解說
      2026-04-12 17:05:00
      川崎工程師坦白:整個日本摩托圈,看到張雪倆字,心就咯噔一下

      川崎工程師坦白:整個日本摩托圈,看到張雪倆字,心就咯噔一下

      嘴角上翹的弧度
      2026-04-11 07:02:09
      吃他汀不能碰燕麥?醫(yī)生勸告:不只是燕麥,這3物再饞也要忌嘴

      吃他汀不能碰燕麥?醫(yī)生勸告:不只是燕麥,這3物再饞也要忌嘴

      墜入二次元的海洋
      2026-04-12 14:37:42
      埋百萬豪車給父陪葬的土豪“孝子”,被查了!

      埋百萬豪車給父陪葬的土豪“孝子”,被查了!

      蔥哥說
      2026-04-11 23:13:57
      新中國十位國家級女領(lǐng)導(dǎo)人

      新中國十位國家級女領(lǐng)導(dǎo)人

      祁州校尉
      2026-04-11 09:00:31
      美伊未達(dá)成協(xié)議后,特朗普轉(zhuǎn)發(fā)了一個媒體報道鏈接,標(biāo)題為《如果伊朗不屈服,總統(tǒng)持有的王牌是海上封鎖》

      美伊未達(dá)成協(xié)議后,特朗普轉(zhuǎn)發(fā)了一個媒體報道鏈接,標(biāo)題為《如果伊朗不屈服,總統(tǒng)持有的王牌是海上封鎖》

      都市快報橙柿互動
      2026-04-12 12:51:34
      抵達(dá)北京!乒協(xié)出手,鄧亞萍正式上任,新崗位曝光,孫穎莎發(fā)聲

      抵達(dá)北京!乒協(xié)出手,鄧亞萍正式上任,新崗位曝光,孫穎莎發(fā)聲

      萌蘭聊個球
      2026-04-12 13:00:43
      美伊談判失敗,伊朗表態(tài)太高明!特朗普轉(zhuǎn)頭就對中國說了一句狠話

      美伊談判失敗,伊朗表態(tài)太高明!特朗普轉(zhuǎn)頭就對中國說了一句狠話

      小撇說事
      2026-04-12 16:11:57
      武統(tǒng)、和統(tǒng)都沒希望了?臺灣軍事專家:中國已經(jīng)走上了第三條路

      武統(tǒng)、和統(tǒng)都沒希望了?臺灣軍事專家:中國已經(jīng)走上了第三條路

      余們搞笑段子
      2026-02-19 05:03:10
      洗臉熊創(chuàng)始人回應(yīng)“意外拍下張雪機(jī)車”:整個人都跳起來了,車將放商場供粉絲打卡,500萬已捐嫣然醫(yī)院

      洗臉熊創(chuàng)始人回應(yīng)“意外拍下張雪機(jī)車”:整個人都跳起來了,車將放商場供粉絲打卡,500萬已捐嫣然醫(yī)院

      極目新聞
      2026-04-12 10:14:34
      4月11日【油價大跌】一夜閃崩,全國92,95號汽油“大跌3.19%”,

      4月11日【油價大跌】一夜閃崩,全國92,95號汽油“大跌3.19%”,

      沙雕小琳琳
      2026-04-12 17:25:53
      郎平萬萬沒想到,遠(yuǎn)走海外僅2年,31歲的朱婷早已踏上另一條路

      郎平萬萬沒想到,遠(yuǎn)走海外僅2年,31歲的朱婷早已踏上另一條路

      科普100克克
      2026-03-17 00:58:21
      頂70個永暑礁!坐擁8400平方公里的中沙大環(huán)礁,中國為啥不動工?

      頂70個永暑礁!坐擁8400平方公里的中沙大環(huán)礁,中國為啥不動工?

      說宇宙
      2026-04-12 10:55:03
      36歲時的鄭麗文與蘭宣、尹乃菁合影。

      36歲時的鄭麗文與蘭宣、尹乃菁合影。

      草莓解說體育
      2026-04-12 08:02:43
      中國籃協(xié):已注意到李沂澤年齡存疑 調(diào)查和處理結(jié)果將向社會公布

      中國籃協(xié):已注意到李沂澤年齡存疑 調(diào)查和處理結(jié)果將向社會公布

      狼叔評論
      2026-04-11 23:12:11
      俄寡頭:普京將在一月內(nèi)對烏發(fā)動核打擊,發(fā)射一枚2萬噸當(dāng)量核彈

      俄寡頭:普京將在一月內(nèi)對烏發(fā)動核打擊,發(fā)射一枚2萬噸當(dāng)量核彈

      梁濆愛玩車
      2026-04-09 16:04:48
      男子用透明文件夾裝著147.4萬港幣現(xiàn)金帶出境,被海關(guān)發(fā)現(xiàn)異常并進(jìn)行攔截,海關(guān)提醒:攜帶超額現(xiàn)鈔不予放行

      男子用透明文件夾裝著147.4萬港幣現(xiàn)金帶出境,被海關(guān)發(fā)現(xiàn)異常并進(jìn)行攔截,海關(guān)提醒:攜帶超額現(xiàn)鈔不予放行

      環(huán)球網(wǎng)資訊
      2026-04-12 11:07:45
      2026-04-12 17:51:00
      數(shù)字生命卡茲克 incentive-icons
      數(shù)字生命卡茲克
      反復(fù)橫跳于不同的AI領(lǐng)域,努力分享一些很酷的AI干貨
      497文章數(shù) 616關(guān)注度
      往期回顧 全部

      科技要聞

      理想稱遭惡意拉踩,東風(fēng)日產(chǎn):尊重同行

      頭條要聞

      伊朗不接受美"紅線" 消息人士:美在談判決策上犯了錯

      頭條要聞

      伊朗不接受美"紅線" 消息人士:美在談判決策上犯了錯

      體育要聞

      五大聯(lián)賽首冠出爐?拜仁或提前4輪衛(wèi)冕德甲

      娛樂要聞

      46歲趙達(dá)官宣結(jié)婚!曾與殷桃談婚論嫁

      財經(jīng)要聞

      美伊談判破裂的三大癥結(jié)

      汽車要聞

      煥新極氪007/007GT上市 限時19.39萬起

      態(tài)度原創(chuàng)

      教育
      親子
      家居
      游戲
      公開課

      教育要聞

      Q開頭的單詞!

      親子要聞

      “孩子都8歲了 一定要分床睡”,醫(yī)生分享:如果孩子長期不和家人分床,“會影響性格發(fā)育、情商發(fā)育 很難培養(yǎng)獨立性”

      家居要聞

      復(fù)古風(fēng)格 自然簡約

      《塞爾達(dá)時之笛RE》可能是假的!任天堂在搞釣魚執(zhí)法

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版