誰能想到,2026年開年的第一場科技圈大戲,不是發手機,也不是發汽車,而是在黃浦江邊的浦東美術館里看畫呢?
1月20日,雷科技受邀參加了豆包AI解說體驗日。
為了配合豆包的“入職”,這次浦東美術館拿出了兩項國際大展:一個是滿眼金銀玉器的《圖案的奇跡:盧浮宮印度、伊朗與奧斯曼的藝術杰作》,一個是色彩爆炸的《非常畢加索:保羅?史密斯的新視角》。
(圖源:雷科技)
說實話,來之前我其實挺犯嘀咕的。
畢竟這兩年雖然AI喊得震天響,但真落地到生活里,多多少少有些不盡如人意。特別是這種文化藝術類的場景,搞不好就是現場翻車。
但這一趟體驗下來,面對著莫臥兒王朝的古董和畢加索的真跡,我得承認:AI技術融入生活的速度,比我們想象的還要快,以前那種跟著解說人員的看展方式,可能真的要徹底翻篇了。
AI「入職」第一關:從看見到看懂
在開始逛展之前,咱們首先是參加了豆包與上海浦東美術館舉行的合作發布會,包括浦東美術館董事長李旻坤,字節跳動副總裁朱駿,藝術家陳丹青與北京大學教授、藝術史學者朱青生先后上臺發言,一同見證了這歷史性的一幕。
![]()
(圖源:雷科技)
這次發布會的信息量還蠻大的,我在這里給大家劃幾個重點。
首先,這是AI產品第一次真正有了“編制”。豆包不再是一個第三方的輔助工具,而是浦東美術館官方認證的講解員。
這意味著什么?意味著數據源的準確性有了背書。
根據豆包逛展項目的負責人介紹,雙方通過獨家數據合作和定向搜索優化,進一步提升了豆包識別和講解的準確性。
以前我們用AI搜圖,經常會出現張冠李戴的情況。但在發布會上,項目負責人舉了個很硬核的例子:這次《圖案的奇跡》展里,有一件伊朗15世紀的《牡丹紋盤》,長得跟明代永樂年間的青花牡丹紋盤簡直是雙胞胎。
(圖源:雷科技)
這時候,你用一般的AI掃過去,大概率會說是中國青花瓷。
但因為有了獨家數據的投喂和定向搜索優化,借助RAG(檢索增強生成)技術,豆包能從釉色、筆觸這些微小的細節里,把這兩件相隔萬里的文物精準區分開,為使用者帶來經過專家審核的標準答案。
其次,是交互方式的質變。
在現場和陳魯豫對談時,字節跳動副總裁朱駿說了一段很打動我的話,他認為AI和用戶的交互本質上是一種對話體驗。在觀展過程中,希望豆包通過共情式的提問和啟發式的對話,把用戶已有的感受和經驗調動出來,形成更有參與感的理解過程。
為了實現共情,他們還推出了親子解說風格。
比如在看畢加索的《閱讀》這幅畫時,如果是專業模式,它會給你講1932年的創作背景、瑪麗·特蕾茲·瓦爾特的繆斯身份;但如果是親子模式,它可能會引導孩子去看畫里柔和的曲線,問孩子“你能從畫里看出她在看什么類型的書嗎?”。
![]()
(圖源:雷科技)
這或許就是浦東美術館董事長李旻坤在臺上說的千人千面,讓美學教育不再是高高在上的單向灌輸,而是成為一場跨越時空的聊天。
最重要的是,這次的技術底座是Seed 1.8模型。
這個模型最厲害的地方在于原生的視頻理解能力。正如發布會介紹說,它不再是以前那種“拍一張圖、問一句話”的斷裂模式,而是能像人的眼睛一樣,持續地看、持續地理解。
![]()
(圖源:雷科技)
想知道這種“流式”的交互體驗,到底怎么樣?光聽發布會沒用,我決定去展廳里實測一把。
現場實測:像跟朋友視頻一樣逛美術館
既然這次浦東美術館拿出了兩項國際大展,我們自然是按順序從下往上去體驗,先從二樓設置的畢加索展廳開始。
結果呢?剛進展廳,我就有些困惑。
大家都知道,畢加索的東西,有時候真的很難懂。
而這次畢加索展廳,居然在入口處的墻面上設置了大量的自行車坐墊,更是讓沒見過世面的我看的一臉懵。
![]()
(圖源:雷科技)
轉頭看去,在另一面白墻上,同樣掛著一個看著像自行車坐墊的玩意兒。
我直接打開豆包的視頻通話,對著它問:“這是什么?”
“這是畢加索在1931年創作的青銅雕塑《牛頭》。它最絕妙的地方在于材料的運用,其實是用一輛廢棄自行車的車把和坐墊組合而成的,車把構成了牛角,坐墊則是牛臉。”
![]()
(圖源:雷科技)
牛頭嗎…我仔細看了看,確實有那么點意思,但還是很奇怪,于是我接著問:“額,那這不就是個自行車座和車把嗎?這也算藝術?”
要是以前的語音助手,這會兒估計已經給我念《牛頭》的百度百科了,比如創作年份、材質之類的死板信息。
但豆包的反應很有意思,畫面里的識別框閃了一下,然后開始回復:
“畢加索并非簡單地用現成的自行車部件進行組合,而是通過青銅澆鑄,將工業元素融入雕塑之中,把日常生活中最普通的物品,變成了充滿力量和野性的藝術作品,這也體現了他將現成品融入藝術的創作思路,兼具超現實主義的野性張力。”
可以,這很原作。
![]()
(圖源:雷科技)
就這樣,我在豆包的指引下,一點點地了解著畢加索,從他對于斗牛元素的癡迷,到他基于空間元素的結構,還看到了諸如瓷藝、折紙、雕塑等一系列作品。
比起簡單的抽象二字,畢加索在我的眼里變得更像一個活生生的、復雜的人。
![]()
(圖源:雷科技)
看完畢加索展,我一看表,時間不多了。浦東美術館不小,要是沒頭蒼蠅亂撞,肯定累死。
能咋辦,問吧。
我站在展廳中間,對著手機說:“我還剩差不多半小時,你能幫我規劃一下莫臥兒王朝展該怎么逛嗎?”
豆包停頓了一下,然后給出了建議:
“建議您現在直接坐扶梯上三樓,去《圖案的奇跡》展廳,進去就能看到象征皇權的珠寶和武器,一路走下去還能縱覽細密畫和地毯,最后快速瀏覽一下皇帝用的餐具和首飾盒。看完后從出口離開,路上您還能順便看到那個很火的‘鏡廳’打卡點。”
按照路線,我沖到了3樓的《圖案的奇跡》展廳。
![]()
(圖源:雷科技)
這里全是印度、伊朗和奧斯曼帝國的寶貝,其中最亮眼的就是我面前這把馬頭匕首,刀柄上不僅鑲滿了寶石,而且還整了個栩栩如生的馬頭雕塑,根本沒有男人能拒絕這樣的東西。
我把攝像頭懟上去,故意刁難它:“這把刀的手柄看著像塑料的,啥情況?”
![]()
(圖源:雷科技)
這是最考驗Seed 1.8模型視頻理解能力的時候,它不僅要識別物體,還要在光線不好的情況下判斷材質。
豆包的聲音傳過來:“這可不是塑料。這是17世紀莫臥兒帝國時期的玉雕工藝。你看那個把手是獸首形狀的,用的是頂級的白玉。當時的人認為玉能驗毒,所以皇室特別喜歡用玉做兵器的手柄。雖然現在看著有點舊,但在當年,這把匕首的價值可能抵得上一座城池。”
它沒有被我的描述帶偏,而是基于視覺事實進行了糾正。
這一路下來,我最大的感受是:不用打字、不用反復拍照,就像跟一個懂行的朋友視頻通話一樣,指哪問哪,基本上都能得到想要的答案,偶爾還能擴展些沒想到的知識。
只要不怕社死,整個體驗確實不賴。
告別拍照查資料,多模態技術終于「活」了
走出美術館的時候,我整個人心滿意足。
雖然我去美術館的次數不多,一個人去的時候更是寥寥無幾,但是這次逛展的體驗,確實要比之前和同事們插科打諢的逛展體驗好上不少,至少豆包它是真懂,而不是像我同事那樣一知半解,說話還賊大聲。
具體到產品上,豆包這次給我的感覺,其實是把那種高大上的多模態技術,真正塞進了具體的場景里。
![]()
(圖源:雷科技)
這一年時間,國內外各家大模型廠商其實都在鼓吹著“原生多模態”的升級,但是除了Google Gemini之外,鮮有大模型廠商能讓這項技術走進人們的生活中,更多人還是把大模型當成一份以AIGC為主的娛樂向工具來使用。
顯然,豆包并不滿足于此。此前,他們就曾與中國國家博物館等七家國家一級博物館合作打造數字化看展體驗區,隨著視頻交互形式逐漸普及,預計他們還會在旅行、觀光、展覽等視覺信息占比更高的場景發力。
如今,我們可以隨手舉起手機,讓豆包看到我們眼前的東西,從最基本的“這是什么?”出發,一點點挖掘出更多的信息和知識。這種體驗,既具有實用價值也充滿樂趣,適合出游不喜歡做嚴密的計劃,喜歡遇到更多偶然驚喜的人。
![]()
(圖源:雷科技)
在我看來,科技的進步,不是為了炫技。它是為了把那些高高在上的藝術,變成我們普通人也能聽得懂、聊得來的日常。
而豆包現在在做的,就是文化傳播與互動體驗融合的正向循環。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.