![]()
公司情報專家《財經涂鴉》獲悉,近日,京東探索研究院宣布正式開源自研JoyAI-Image-Edit圖像模型,從此前的平面修圖升級為三維空間重塑,開發者可直接拿來生成應用。
JoyAI-Image-Edit深度貼合真實世界空間規律,從空間位置關系、多視角一致性、相機感知到場景推理等維度全面建模,實現了相機坐標視角變換、物體空間位移旋轉、幾何結構精準控制等多項空間編輯技術突破,將空間認知能力深度融入文本與圖像生成流程,搭建了完整的空間理解數據與任務體系。
該模型打破了AI“理解圖像”和“生成圖像” 的壁壘,讓AI不僅能生成逼真的圖像外觀,更能精準理解圖像背后的空間結構,在編輯過程中穩定保持主體形象與場景結構完整,多視角空間布局高度一致,徹底解決傳統模型空間邏輯混亂的行業難題。
具體而言,JoyAI-Image-Edit具備三大辨識度極高的空間編輯能力。
一是視角變換。用戶可通過自然語言指定相機的偏航角、俯仰角及縮放程度,模型在保持場景幾何一致性的前提下生成新視角圖像;
二是空間漫游。支持連續的視角移動,生成在空間中邏輯連貫的多視角圖像序列,類似于在三維場景中“走動”;
三是物體空間關系操控。在保持場景整體結構穩定的前提下,對特定物體進行位移、縮放等空間變換,同時確保遮擋與光影關系自然合理。
在實現空間級突破的同時,JoyAI-Image-Edit全面兼容15類通用編輯能力,深度覆蓋內容創作的高頻需求。無論是物體的替換、刪除、添加,還是整體風格遷移、細節精修等操作,模型均實現了高性能覆蓋。
憑借領先的空間理解與編輯能力,JoyAI-Image-Edit模型突破場景限制,可廣泛應用于電商內容生產、創意設計制作、智能圖像處理、3D模型重建、具身智能視覺感知等多元領域,大幅提升AI圖像技術在復雜空間場景中的適配性與實用性。尤其是在具身智能領域,空間理解能力是機器人“理解世界”的核心基礎,而該模型的推出,也為相關技術研發提供了關鍵的底層能力。
此次JoyAI-Image-Edit的開源,是京東在AI多模態模型領域的重要布局,更是讓AI圖像編輯實現了從平面到空間的大跨越。未來該模型還將持續落地更多場景,不斷探索空間智能落地價值。
過去一個月內,京東不僅宣布首次開源基礎大模型JoyAI-LLM Flash,打破大模型參數內卷的困局,京東云“龍蝦”系列產品亦集體上線,token調用量周環比增長高達455%。
此外,京東還宣布將建成全球最大的具身數據采集中心,并將依托超級供應鏈優勢,持續推動AI與產業深度融合。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.