![]()
作者 林易
編輯 重點君
12月3日,拉斯維加斯。AWS CEO 馬特·加曼(Matt Garman)在他的首場 re:Invent 年度演講中,在10分鐘內發布25款新品,全場兩小時發布的新品更是近40個。包括全新一代自研芯片、前沿基礎模型及企業級模型定制框架在內的一系列重磅產品,集中展示AWS在算力層、模型層和應用層的突破。
作為年化收入高達1320 億美元的全球云計算一哥,AWS此刻正站在一個關鍵十字路口:AI熱潮已經持續兩年,但許多企業仍困在“高投入、低回報”的焦慮中,他們開始追問巨額投入什么時候才能轉化為真實的業務回報。
AWS在此次re:Invent大會上給出的答案是:AI必須從陪聊的助手(Assistant),進化到能真正干活的智能體(Agent)。
為了接住這個從模型驅動向智能體驅動轉移的機會,AWS選擇了一條非常重的路:向下造芯,死磕性價比;中間做厚模型,打破微調的天花板;向上立規矩,解決 Agent落地最核心的失控風險。
整場發布會看下來,AWS的戰略重心已從專注技術突破轉向更側重企業級價值落地,推動AI真正為企業客戶創造價值。
在此次大會密集的發布和兩萬字實錄中,我們梳理了AWS在算力、模型、應用三個維度的核心進展。
![]()
在算力層:
AWS的策略變得更加務實且激進:一方面用自研芯片大幅壓低成本,另一方面打破公有云的物理邊界,去適應那些不想上云的大客戶。
AWS 發布了 Trainium 3 UltraServers,相比前代,Trn3 的推理能效提升了 5 倍。更激進的是,AWS 還罕見地提前預告了正在設計中的 Trainium 4,承諾性能將再提升 6 倍。向市場傳遞了一個清晰信號:在超大規模模型訓練上,AWS 決意擺脫對外部算力的絕對依賴。
為了解決金融和政企客戶對數據主權極其敏感的顧慮,AWS 推出了 AWS AI Factories。相當于把 AWS 的算力基礎直接建在客戶自己的數據中心里。
當然AWS 依然是英偉達最鐵的盟友。Trn3未來將兼容英偉達NVlink Fusion技術,此外,新發布的 P6e 實例首批搭載了英偉達最新的GB300 NVL72 系統,專為那些最極端的 AI 負載準備。
在模型層:
AWS 終于補齊了 Amazon Nova 自研模型家族,一口氣發布了 Amazon Nova 2 系列。其中,Nova 2 Omni 是業界首個支持文本、圖、音、視四種輸入并能多模態輸出的模型;而 Nova 2 Pro 則在復雜的指令遵循上表現激進,AWS 稱其在基準測試中優于 GPT-5.1。
企業用大模型最大的痛點是微調太淺,而且容易讓模型變笨,比如遺忘核心能力。AWS 推出的 Amazon Nova Forge 引入了“開放訓練模型”概念,允許企業在模型預訓練的最后階段注入專有數據。
索尼集團已作為早期客戶宣布采用Nova Forge和AgentCore,旨在將其合規審查效率提升100 倍。
在應用層:
Agent(智能體)是未來的核心,但其不可控的特點讓很多企業不敢用。AWS 試圖用一套嚴密的規則體系,讓 Agent變成可信的生產力工具。
馬特·加曼打了一個比方:管理 AI Agent 就像管教青春期的孩子——既要給自由,又要有底線。為此,AWS 推出了AgentCore Policy。不同于以往的模糊提示詞,這是一套基于 Cedar 語言的確定性控制系統,能實時攔截 Agent 的違規操作,比如阻止超過 1000 美元的自動退款,解決了企業對 AI 行為失控的根本恐懼。
針對開發者,AWS 發布了 Frontier Agents 系列,這不僅僅是代碼助手,而是能獨立干活的數字員工。例如 Kiro Autonomous Agent 可以自主修復 Bug,Security Agent 能在代碼提交前自動掃描漏洞,而 DevOps Agent 甚至能在半夜報警時自動診斷根因并給出修復建議。這意味著軟件工程的生命周期,正在被 AI 全面接管。
![]()
以下為AWS第十四屆re:Invent大會實錄:
1、AWS業務概況
歡迎大家來到第十四屆年度re:Invent 大會。能來到現場真是太棒了,此刻現場有超過 60,000 人與我們要共聚一堂,線上觀眾接近 200 萬,其中還包括首次通過《堡壘之夜》(Fortnite)觀看直播的朋友們。歡迎大家,感謝各位的到來。
走在拉斯維加斯的走廊里,我能感受到一種難以置信的能量,這與我過去幾個月與大家交流時的感受不謀而合。這確實是不可思議的一年。AWS 已成長為一家年化收入達 1320 億美元的企業,年增長率達到 20%。為了讓大家對這個數字有更直觀的概念:僅在過去一年,我們的收入就增長了約 220 億美元。這 12 個月的絕對增長額,已經超過了半數《財富》500 強公司的全年收入。
這種增長源于我們業務的方方面面:
Amazon S3:持續增長,客戶存儲的對象數量已超過500 萬億個,數據量達數百艾字節(Exabytes),平均每秒處理超過 2 億次請求。
計算能力:連續第三年,AWS 新增的 CPU 容量中有一半以上來自自研的 Graviton 芯片。
AI 與數據:數百萬客戶正在使用我們的數據庫服務;Amazon Bedrock 目前正在支持超過 10 萬個 AI 推理應用。
今年,我們推出了首批構建模塊,通過Bedrock AgentCore 幫助企業在規模化環境中安全地部署和運行高能力的Agent。AgentCore 展現出了極其強勁的發展勢頭,自發布僅幾個月以來,其 SDK 下載量已超過 200 萬次。此外,我們還發布了首款量子計算芯片原型 Ocelot。Ocelot 是量子計算領域的突破,它不僅降低了實施成本,還提升了 90% 以上的量子糾錯能力。
這一切都始于安全、可用且具有彈性的全球基礎設施,在這個領域我們依然無可匹敵。AWS 擁有迄今為止規模最大、覆蓋最廣的 AI 云基礎設施。我們的全球數據中心網絡覆蓋 38 個區域、120 個可用區,并已宣布計劃新增三個區域。僅在過去一年,我們就新增了 3.8 吉瓦(GW)的數據中心容量,這一數字領先全球。同時,我們擁有世界上最大的私有網絡,在過去 12 個月內規模增長了 50%,目前擁有的陸地和海底電纜總長超過 900 萬公里,這一長度足以往返地球與月球 11 次以上。
在Amazon,一切始于客戶。今天,數以百萬計的客戶在我們的平臺上運行著各種各樣的用例。全球各行各業的大型企業、金融服務、醫療保健、媒體娛樂、通信行業,乃至各國政府機構,都在 AWS 上運營業務并實現轉型。
對于AWS 而言,安全是重中之重,是一切的基礎。正因如此,美國情報界十多年來一直選擇 AWS 作為首選云服務商;納斯達克將交易市場遷移至 AWS;輝瑞公司(Pfizer)也選擇 AWS 作為其數字化轉型的核心。
我們也深知合作伙伴對客戶成功的重要性。我們要感謝龐大的合作伙伴網絡,包括本周到場的眾多SaaS 提供商、系統集成商和解決方案提供商,沒有你們,我們無法服務如此廣泛的全球客戶。
我個人對初創公司情有獨鐘。在AWS 上構建的“獨角獸”企業數量遠超其他任何平臺。如今,越來越多的初創公司,尤其是 AI 初創公司,正涌向 AWS。福特 2025 年 AI 50 榜單中 85% 的企業,以及 CNBC Disruptor 50 榜單中 85% 的企業都運行在 AWS 上。這些創始人創造的成果令人驚嘆。
(以下為AudioShake 團隊分享內容)
AudioShake 是去年 re:Invent “Unicorn Tank” 路演比賽的冠軍。試想一下,如果我們能從一段熱帶雨林、游樂場或街頭音樂的錄音中,將音樂、車聲或背景對話單獨提取出來,會發生什么?
在AudioShake,我們將聲音分離,以便人類和機器能以全新的方式訪問和理解它。我們的多說話者分離器是全球首個能將不同說話者的聲音高分辨率分離到不同流中的技術。這可以應用于呼叫中心將個別聲音隔離,也廣泛應用于媒體和娛樂領域。
更重要的是,我們在聽力和語言障礙領域看到了巨大潛力。我們與一些關注ALS(肌萎縮側索硬化)的非營利組織合作,利用患者發病前的舊錄音,分離出他們原本的聲音進行克隆,讓患者能用自己原本的聲音交流。
創業之初我們只有三個人。如果沒有AWS,我們根本無法獲得將模型交付給真實客戶所需的基礎設施。我們在 AWS 上運行整個生產流水線,從推理、存儲到作業編排及整個生產環境。我們正邁入一個聲音更加可定制化的世界,這不僅能幫助聽力障礙者以想要的方式聆聽世界,也能幫助機器更深入地理解現實世界。
感謝AudioShake 團隊的精彩分享。AWS 的一切工作都離不開構建者,尤其是開發者。本次大會一直以來都是一個以此為核心的學習型會議。我要感謝全球數以百萬計的 AWS 開發者,特別是在座的 AWS Heroes,以及遍布全球 129 個國家、擁有超過 100 萬成員的用戶組社區。
我們為什么要這樣做?是什么激勵著我們?為什么我們在20 年后的今天,依然保持著與 AWS 創立之初同樣的熱情?
驅動我們每天前進的動力,是賦予你們完全的發明自由。從創立AWS 的那一刻起,這就是我們的愿景:我們要讓每一位開發者或發明家,無論是在宿舍還是車庫,都能獲得所需的技術基礎設施和能力,去構建他們想象中的任何東西。
20 年前,這是不可能的。開發者無法在不投入大量資金和時間的情況下獲得服務器或算力。大家把太多時間花在采購服務器和管理基礎設施上,而不是構建產品。我們在 Amazon 內部也曾切身體會到這一點——我們擁有充滿絕妙創意的構建者,但受限于基礎設施,無法快速行動。
于是我們問自己:“為什么不呢?(Why not?)” 為什么開發者不能專注于構建?為什么不能將實驗的時間和成本降為零?為什么不讓每一個想法都成為可能?
過去二十年,我們一直在為實現這些目標而創新。如今,我們正見證人工智能領域的爆發式發明。每一家公司、每一個行業都在被重塑。雖然技術迭代速度前所未有,但我們仍處于AI 變革的早期階段。
但我知道,許多客戶尚未看到與AI 承諾相匹配的回報,AI 的真正價值尚未完全釋放。這一情況正在快速改變。我們看到“AI 助手(Assistants)”正開始讓位于“AI Agent”。Agent不僅能回答問題,更能為你執行任務并實現自動化。這正是 AI 投資開始產生實質性商業回報的地方。
我相信,Agent的出現將把我們帶到人工智能發展的一個拐點。AI 正在從一種技術奇跡轉變為能夠帶來真正價值的生產力工具。這一變化對業務的影響將堪比互聯網或云計算的誕生。
未來,每一家公司的內部和各個領域都將涌現出數十億個Agent。我們已經看到Agent在加速藥物發現、提升客戶服務、提高工資處理效率等方面的應用。在某些情況下,Agent將人類的影響力擴展了 10 倍,讓人們有更多時間去創新。
如果每個人都能獲得這種程度的影響力,豈不是太棒了?我們也是這么認為的。這就是為什么我們再次問自己:“為什么不呢?”
要邁向擁有數十億Agent的未來,讓每一個組織都能從 AI 中獲得真實的商業成果,要求我們必須打破基礎設施的可行性極限。我們需要為具有Agent能力的系統和應用發明新的構建模塊,我們需要重新構想每一個流程以及大家的工作方式。
在AWS,我們一直在堆棧的各個層面進行創新,以賦予你們發明未來的全部自由。要交付真正帶來價值的Agent,一切都始于擁有最具擴展性和最強大的 AI 基礎設施。你需要一個高度可擴展且安全的云平臺,為 AI 工作負載提供絕對的最佳性能。同時,你希望在模型訓練、定制化以及推理的全過程中,以盡可能低的成本實現這一目標。
說起來容易做起來難,這需要對硬件和軟件的每一層進行深度優化。事實證明,這沒有捷徑,而這正是AWS 能夠做到的。
![]()
2、AI 基礎設施
當我們思考AI 基礎設施時,首先想到的就是 GPU。在AWS 上運行 NVIDIA GPU 無疑是最佳選擇。我們是最早提供云端NVIDIA GPU 的服務商之一,與 NVIDIA 的合作已超過 15 年,這意味著我們已經掌握了大規模運行 GPU 的技術。如果你詢問任何在其他供應商處運行過大型 GPU 集群的人,他們會告訴你,AWS 在運行 GPU 集群方面是最穩定的。我們在避免節點故障方面表現出色,并提供最佳的可靠性。
這源于我們對細節的精益求精。即使是調試BIOS 以防止 GPU 重啟這類細微的工作,我們也會投入精力。在其他地方,人們可能會接受現狀,認為“這就是運作方式”。但我們不同,我們會調查并找出每一個問題的根本原因,然后與合作伙伴 NVIDIA 合作,確保持續改進。對我們而言,沒有小到不值得關注的問題。正是這些細節至關重要,使我們在 GPU 可靠性方面引領行業。這需要艱苦的努力和真正的工程技術才能實現,而我們在每一代產品上都在這些新的維度上進行改進。
今年,我們推出了第六代P6 EC2 Instances,包括采用 NVIDIA Blackwell 處理器 GB200 的 P6E Ultra 服務器,其計算能力比我們之前的 P5n 提升了超過 20 倍。這些Instances非常適合正在使用超大型 AI 模型的客戶。
今天,我們很高興地宣布推出全新的P6E GB300,由 NVIDIA 最新的 GB300 NVL72 提供支持。我們持續為最苛刻的AI 工作負載提供同類最佳的計算能力。我們對硬件和軟件采取了全棧方法,再加上嚴謹的運維,確保了全球最大規模的組織能夠獲得絕對最佳的性能和可靠性。
世界上最大規模的組織,包括NVIDIA 自身(通過 Project Saba on AWS)和 OpenAI 等眾多公司,今天都在 AWS 上積極運行大規模通用生成式 AI 集群。他們正在使用由數十萬 GB200(很快將升級為 GB300)芯片構成的 EC2 Ultra 服務器集群。這些集群具有可擴展能力,能夠擴展到數千萬個 CPU 以上,用于管理他們的智能Agent工作流,支持其 ChatGPT 應用以及下一代模型的訓練。
另一個合作案例是沙特阿拉伯新成立的公司Humane,他們致力于推動該地區的 AI 創新。我們最近宣布與 Humane 合作開發沙特阿拉伯王國的 AI 區。這項合作將為客戶提供高性能基礎設施、模型以及 SageMaker 和 Bedrock 等 AI 服務,同時幫助滿足沙特王國對安全、隱私和負責任 AI 的嚴格標準。
這類項目引起了大型政府機構和公共部門對類似概念的興趣。于是我們思考:能否將這種類型的AI 區域交付給更廣泛的客戶,甚至可能利用客戶現有的數據中心方案?
這就是我們今天很高興宣布推出AWS AI Factories的原因。通過此項發布,客戶能夠在他們自己的數據中心部署專用的AWS AI 基礎設施和服務,僅供他們專用。AWS AI 工廠的運作方式類似于私有的 AWS 區域,客戶可以利用他們已購置的數據中心空間和電力容量,并獲得 AWS 領先的 AI 基礎設施和服務,包括最新的 Trainium Ultra 服務器或 NVIDIA GPU,以及對 SageMaker 和 Bedrock 等服務的訪問。這些 AI 工廠專門為每個客戶獨立運行,有助于實現隔離,同時保持 AWS 的安全性和可靠性,并滿足嚴格的合規性和主權要求。我們非常期待這些 AI 工廠能為客戶帶來的巨大可能性。
談到AWS 的 AI,我們始終強調選擇自由。如果你想擁有頂級的AI 基礎設施,你需要具備用于 AI 訓練和推理的最優算力。AWS 迄今為止以最廣泛的選項領先一步,其中就包括我們開創性的專用 AI 處理器。
AWS Trainium 是我們定制的 AI 芯片,旨在為 AI 工作負載提供最佳的性價比。客戶喜歡 Trainium 在訓練工作負載方面所能達成的成果。但我們也要自我批評:AWS 的產品命名常常令人頭疼,Trainium 也不例外。我們將其命名為 Trainium,因為它旨在為 AI 訓練提供出色的體驗。然而,事實證明,Trainium 2 目前實際上是世界上用于推理的最佳系統。
許多客戶可能已經在不知不覺中使用Trainium。今天,在 Amazon Bedrock 上運行的大部分推理工作負載實際上都由 Trainium 提供支持。Trainium 的性能優勢非常明顯。如果你在 Bedrock 中使用 Claude 的最新一代模型,所有這些流量都運行在 Trainium 上,它提供了比任何其他主要供應商更優的端到端響應時間。
這也是我們迄今為止已部署超過100 萬枚 Trainium 芯片的部分原因。我們以創紀錄的速度達到了百萬芯片的規模,因為我們掌控整個流程和技術棧,能夠端到端優化部署方式,從而實現更快地推進。事實上,Trainium 2 在數據中心的大規模部署速度,比我們之前見過的下一款最快芯片快四倍。它是我們有史以來大規模投產的最強 AI 芯片,并且正在以我們能制造的最快速度售出。Trainium 今天已經代表了一項數十億美元級別的業務,并且仍在快速增長。
當所有這些在一個圍繞Trainium 專門構建的系統中匯聚時,會是怎樣一番景象?
以前有人說“數據中心就是新的計算機”,而現在,在訓練下一代模型時,數據中心園區就是新的計算機。Anthropic 的 Claude 是當今世界上最好的模型之一,它由 Trainium 在 Project Rainer 中實現。
現在我們宣布Trainium 3 UltraServers已全面可用。Trainium 3 芯片在單一縱向擴展域中協同工作,通過定制的 Neuron 交換機互聯,提供了巨大的 362 FP8 PetaFLOPS 的計算能力和超過每秒 700 TB 的總帶寬,且全部在一個計算Instances中。此外,我們定制構建的 EFA 網絡支持將這些擴展到數十萬芯片的集群。
沒有其他任何人能為你提供這種能力。這需要將所有這些系統級組件協同設計:需要多種類型的定制硅芯片,需要縱向擴展和橫向擴展的網絡,需要詳盡且集成的軟件棧,當然還需要業內領先的數據中心。
在一個關于性能提升的真實世界示例中,我們針對一個流行的開源GPT(GPT-OSS)12B 模型進行了推理基準測試,分別在 Trainium 2 和 Trainium 3 上運行。結果顯示,Trainium 3 相比 Trainium 2 獲得了顯著的效率提升:每兆瓦輸出的Token 數提高了超過五倍,同時每位用戶保持了相同的感知延遲(我們稱之為交互性)。我們在多個不同模型上運行時也看到了類似的結果。我們非常期待Trainium 3 將為客戶帶來的創新,并且我們不會止步于此,正在全力開發 Trainium 4。
未來,計算速度和過程的安全性將比以往任何時候都更重要。AWS 在這方面的組合是世界上最優秀的。其對人類的意義在于,能夠構建一種新型的、具有可擴展性的科學思維和基礎設施,讓這種思維開始運轉,去發現治療方法、新能源技術、新材料等等,共同將更好的未來帶入當下。
3、Amazon Bedrock:生成式 AI 平臺
基礎設施層面的發明令人難以置信,但基礎設施只是故事的一部分。我們看到世界上每一個應用都正在被AI 重新定義。我們正邁向一個推理(Inference)的未來,推理是每個開發者構建的應用中不可或缺的一部分。要在那個未來取得成功,你需要一個安全、可擴展、功能豐富的推理平臺。
這就是我們開發Amazon Bedrock 的原因。Bedrock 是一個全面的平臺,旨在幫助你在從原型過渡到生產環境的過程中,加速生成式 AI 應用的開發。
使用Bedrock,你可以選擇各種最新模型并進行自定義。我們提供開放權重模型和專有模型,通用型或專用型,大型或小型模型。在過去一年里,我們將 Bedrock 中提供的模型數量增加了近一倍。今天,我們很高興地宣布將推出一整批新的開源權重模型。
這些模型包括Google 的 Gemma、Miniaix M2 和 NVIDIA 的 Neotron。同時,今天還有幾款全新模型首次向全球發布:
Mistral Large:這是對他們Large 2 模型的巨大飛躍,上下文窗口大小翻倍,模型參數數量增加了超過五倍。
Mistral 3:包含三款模型組合,提供了靈活的部署選項,適用于超高效的邊緣設備、單GPU 部署或高級本地運行。
除了Bedrock 上提供的眾多第三方模型之外,AWS 去年發布了 Amazon Nova,這是亞馬遜的基礎模型家族,為許多工作負載提供業內最佳性價比。在過去一年里,Nova 家族已擴展以支持更多用例,包括語音到語音的用例,例如 Amazon Sonic。我們最近發布了業內性能最好的新一代模型Amazon Nova 2:
Nova 2 Lite:將成為真正的主力模型,提供行業領先或更優的性價比,適用于各種場景。
Nova 2 Pro:是我們最智能的推理模型,非常適合處理那些復雜的Agent工作負載。在遵循指令和自主工具使用等關鍵領域,Nova 2 Pro 表現出色。在這些領域的人工分析基準上,Nova 2 Pro 的絕對結果優于 GPT-5.1、Gemini 3 Pro 和 Claude 4.5 Sonnet 等領先模型。
Nova 2 Sonic:適用于需要語音功能的應用程序,在出色的性價比下提供行業領先的對話質量,具有更低的延遲和更高的可擴展性,并顯著擴展了語言支持。
Nova 2 Omni:是一種全新的多模態模型,具備獨特的能力,能夠處理圖像、視頻和音頻輸入,并支持文本和圖像生成輸出的推理。
這是為Amazon Nova 家族推出的四個新的行業領先模型,但這僅僅是一個開始。
接下來,我們來看看Gradial 正在如何利用 Nova 和 Bedrock 構建優秀的能力。在營銷中,最大的瓶頸不是創意本身,而是創意實現之后發生的一切。Gradial 致力于實現內容的快速交付。
如今,內容運營領域高度依賴人工。將創意簡報發布到網站上,可能需要四到六周,涉及設計師、工程師、文案撰稿人以及網站策略師等20 個不同的步驟。Gradial 所做的是將所有不同的系統連接在一起,從而能夠將創意想法快速轉化為網站內容。
Gradial 利用 Bedrock 實現這些功能令人驚嘆。隨著這些模型被用于驅動越來越多的關鍵任務業務線應用和Agent工作流,AI 對貴公司數據的理解變得至關重要。
![]()
4、Amazon Nova Forge:開放訓練模型
目前企業最常用且成功的技術,是將專有數據與大型模型結合的方式,包括利用RAG(檢索增強生成)或向量數據,從而在模型推理時提供上下文。這些方法非常有效,能夠幫助模型更高效地處理龐大的數據集并返回相關結果。
然而,我們通常發現,這種做法的能力是有限的。幾乎所有客戶都希望模型能真正理解他們的數據,特別是深厚的領域知識和專業經驗。他們希望模型在做出決策時能夠充分運用這些專業知識。
以一家硬件公司為例,假設他們希望加速新產品的研發。理想情況下,他們需要一個能理解公司過去產品、制造偏好、歷史成功率、失敗率以及可能存在的任何流程約束的模型。他們希望有一種機制,能將所有這些因素整合起來,為設計工程師提供智能指導。
事實證明,無論企業身處哪個行業,都擁有龐大的知識產權和數據語料庫。將這些專有知識集成到所使用的模型中,將產生巨大價值。
自然地,有人會問:為什么不直接訓練一個定制模型?如今,只有兩種主要的實現方式。
第一,你可以從頭構建自己的模型,并將自己的數據包含進去。但這種方式成本極其高昂。而且,企業內部很可能不具備預訓練前沿模型所需的全部數據和專業知識。因此,對大多數公司來說,這并非一個實際的選擇。
第二,大多數人通常會從一個開放權重模型開始,然后對其進行修改和定制。這其中有很大的自定義空間,可以使用微調等技術來調整權重,或者采用強化學習,以構建專注于特定用例的模型。
然而,這種方法的有效性也存在限制。想要讓模型理解它在預訓練階段從未涉及的新領域,非常困難。更重要的是,對模型進行越多的定制,在后訓練中添加越多的數據,這些模型就越容易“遺忘”它們早期學到的一些核心內容,尤其是推理能力。
這有點像人類學習新語言:在兒童時期學習相對容易,但成年后學習則要困難得多。模型訓練也有類似的特性。
因此,盡管在模型可調性方面已經取得了一些進展,但這種路徑畢竟是有限的。到今天為止,還沒有一個完美的方法,能讓企業在獲得最前沿模型的同時,又使其對企業的專有數據和領域知識有深刻理解。
如果能在一個前沿模型訓練的關鍵時刻,將企業的專有數據融入其中,并創建一個僅供該企業使用的模型,會怎么樣?我們認為這正是客戶真正需要的。
今天,我們非常高興地宣布推出Amazon Nova Forge。
Nova Forge是一項全新的服務,它引入了開放訓練模型的概念。通過Nova Forge,您可以獨家訪問各種Nova訓練檢查點。然后,您可以將自己的專有數據融合進來,配合Amazon精心整理的訓練數據集,在模型訓練的各個階段進行。這使得您能夠生成一個對企業信息有深刻理解的模型,同時保留了模型在基礎訓練階段獲得的核心能力。
我們將這些生成的模型稱為Novellas。您可以輕松地將您的Novella上傳到Amazon Bedrock并運行推理。
假設您是剛才提到的那個硬件制造商,擁有數百GB、數十億個tokens的專有數據,涉及過去的設計、失敗模式和評審記錄等。
您可以選擇從一個已完成80%預訓練的Nova 2 Light檢查點開始。使用我們提供的工具集,您將自己的所有數據與Amazon整理的訓練數據集融合。然后,您運行提供的預訓練“配方”來完成模型的預訓練,這次包含了您的所有專有數據。這在模型中植入了您的領域特定知識,同時不會損失其原有的推理等重要基礎能力。
Nova Forge還支持使用遠程獎勵函數和強化微調來進一步改進模型,讓您能夠將真實世界的環境反饋接入到訓練循環中。由于您的基線模型已經理解您的業務,這些后訓練技術會更加有效。
模型準備就緒后,您可以將這個Novella模型導入Bedrock,并像對待任何其他Bedrock模型一樣運行推理。現在,您的工程師可以直接提問,例如:“設計A對比設計B有什么優點和缺點?”模型將根據貴公司的歷史業績、制造約束和客戶偏好,給出針對性的響應。
我們已與一些客戶合作測試Nova Forge,他們從定制化的Nova開放訓練模型中獲得了變革性的成果。
以Reddit為例,他們使用生成式AI在聊天和搜索中對內容進行審核,涉及多個不同的安全維度。最初,對現有模型進行微調無法滿足他們所需的性能要求。嘗試使用多個模型處理不同的安全維度又太過復雜。最終,他們仍難以達到社區特定需求所需的準確度。
然而,借助Nova Forge,Reddit能夠在預訓練階段整合他們自己的專有領域數據,使得模型發展出一種綜合的表示,將通用語言理解和他們社區特定的知識自然地整合在一起。這是他們第一次能夠生成一個既滿足準確性要求和成本效率目標,同時部署和運維也更為簡單的模型。
我們相信,開放訓練模型的理念將徹底改變企業利用AI進行創新的方式。
5、Amazon Bedrock AgentCore:智能Agent平臺
事實證明,采用云技術能讓企業更快速地前進,并適應各種突如其來的變化。現在,最有可能改變企業業務的最大機遇之一就是Agent。
Agent之所以令人興奮,是因為它們可以采取行動并完成任務。它們可以進行動態推理,并創建工作流以最佳方式解決一項工作,而無需預先編程。這些Agent以非確定性方式工作,這也是它們如此強大的部分原因。但這同時也意味著,我們過去用于構建傳統軟件的基礎和工具,未必適用于Agent。
這就是我們推出Amazon Bedrock AgentCore 的原因,它提供最先進的智能Agent平臺,便于企業在大規模下安全地構建、部署和運行Agent。我們在設計AgentCore時,注重全面性與模塊化。
AgentCore具有一個安全的無服務器運行時,確保Agent可以在完全會話隔離中運行。AgentCore內存使得Agent能夠保持上下文,處理短期和長期記憶,使其能夠隨著時間學習并變得更好。我們提供一個AgentCore網關,使Agent可以輕松且安全地發現并連接到工具、數據以及其他Agent。AgentCore身份(Identity)提供了一種安全認證的方式,讓您可以控制Agent可以訪問的工具和數據。AgentCore可觀測性為您提供已部署Agent工作流的實時可見性。
我們還提供了多種基礎工具,允許您的Agent以安全的方式執行真實世界的工作流。例如,代碼解釋器(Code Interpreter)功能可讓您訪問一個安全的執行環境。
AgentCore正迅速被各行各業的客戶采納,作為其智能Agent應用程序的基礎。我們在監管行業如Visa、National Australia Bank或Rio Tinto等公司中,以及在ISV(如Palumi、ADP)和初創公司(如Coher Health、Snorkel AI)中都看到了強勁的勢頭。
納斯達克(Nasdaq)的首席執行官Dina Freeman和她的團隊正在快速構建能夠在他們業務核心領域真正工作的Agent。她認為AgentCore至關重要,因為它提供了他們所需的安全性和隔離性。
另一個例子是Bristol Myers Squibb,他們發現Agent使用AgentCore運行時,具備無縫、動態擴展規模的能力,并能保持其敏感數據安全且隔離。
我們看到像Workday這樣的ISV正在基于AgentCore構建未來的軟件。AgentCore的代碼解釋器準確地交付了他們所需的核心功能、安全要求和數據保護。
![]()
6、引入 AgentCore Policy
管理AI Agent就像撫養一個十幾歲的青少年。我的家中就有兩個出色的青少年。隨著孩子長大,你必須開始賦予他們更多的自主權和自由,讓他們學習并實現“成年化”。然而,你也需要設定一些基本規則,以避免出現重大問題。想想孩子剛開始開車的時候:他們突然擁有了所有自主權,可以自己做很多事情。但你仍需要設置“護欄”,比如規定他們必須在某個時間前回家,或者不能超速行駛。
建立對Agent信任的一種方式是確保它們擁有正確的權限來訪問你的工具和數據。AgentCore Identity 提供了一種很好的實現方式。然而,僅僅設置Agent可訪問的工具權限只是一個良好的開端。你真正想要控制的是,Agent可以使用這些工具執行或不執行哪些具體的操作。例如,“Agent將如何使用這些工具?為誰使用?”這些問題是目前客戶面臨的難題。客戶可以將Policy嵌入到Agent代碼中,但由于Agent會即時生成并執行自己的代碼,這些安全保障措施只是“盡力而為”,提供的保證很弱,并且難以進行審計。
在實際應用中,這意味著你無法確定地控制Agent可執行或不可執行的內容,同時又希望賦予其自主權來完成工作流程。因此,大多數客戶在將Agent部署到最具價值的關鍵用例時會感到受阻。
正是基于這個原因,今天我們宣布在AgentCore 中引入Policy功能。Policy能提供實時的確定性設置,用于控制你的Agent如何與企業工具和數據進行交互。你可以設置這些Policy,定義Agent可以訪問哪些工具、哪些數據、以及在什么條件下如何訪問。這包括 API、Lambda 函數、MCP 服務器,以及 Salesforce 或 Slack 等流行的第三方服務。此外,你還可以定義Agent在何種條件下可以執行哪些操作。
AgentCore 在授予Agent訪問工具或數據之前,會根據這項Policy對每個Agent動作進行評估。我們通過一個簡單的退款示例來解釋。假設你在 AgentCore Policy 中使用自然語言定義了一條Policy,比如:“我希望阻止所有報銷金額超過 1,000 美元的退款請求。”在底層,你的自然語言提示會被轉換成 Cedar 語言。Cedar 是一種流行的開源語言,它支持我們在授權方面的自動化推理工作,也是我們在 AWS 內部可驗證系統的基礎。Policy建立后,會被部署到 AgentCore Gateway,并在毫秒級進行評估。這確保了你的所有操作都能得到即時且一致的檢查,從而保持Agent工作流的快速響應。
這種部署位置的設計至關重要,因為Policy執行是在Agent應用程序代碼之外進行的。Policy評估實際上位于你的Agent與所有數據、API 和工具之間。因此,你可以可預測地控制它們的行為。回到我們的退款政策示例,如果每個Agent操作在訪問工具之前都經過Policy檢查,那么當退款金額超過設定的限額時,Agent就會被阻止發起該退款。有了這些明確的Policy,組織就能對其構建和部署的Agent產生更深的信任,因為他們知道Agent會保持在設定的邊界內。
當然,你不僅希望Agent遵循明確定義的規則,你更需要知道它們的行為是正確的。“信任,但要驗證(Trust, but verify)”是亞馬遜內部一種管理規模化的思維模型。在 AWS,我們給予團隊極大的自主權,我信任他們為客戶進行創新并執行使命。但同時,我也有一些機制,讓我在一切順利時也能深入探查和檢視。我想確認我們確定的戰略舉措,是否正按預期的方式被執行。
這就像是我的青少年子女。我通常相信他們會遵守規則,但我仍可以查看Ring 攝像頭,確認他們是否按時到家。我可以隨時查看實時 360 應用的狀態,以確保他們的行為在我設定的邊界和期望之內。同樣的原則也適用于Agent。為了建立信心,你需要看到它們的實際行為情況。
目前,客戶非常滿意AgentCore Observability(可觀測性)帶來的體驗。你可以實時查看所有運營指標的可見性,包括Agent的響應時間、計算資源使用情況、錯誤率以及哪些工具和功能被訪問。這些都很好。然而,除了Agent在運營層面的表現,還有其他你想要知道的事情。
7、引入 AgentCore Evaluation
你想要知道:Agent是否正在做出正確的決策?它們是否為任務使用了最合適的工具?它們的回答是否正確、適當,甚至是否符合品牌定位?這些是今天極難衡量的事情。通常,你需要一個數據科學家來構建復雜的數據管道,選擇一個模型來嘗試判斷Agent的輸出結果。他們必須構建基礎設施來提供這些評估,然后管理配額和限流。每當你部署一個新的Agent,或想升級到正在使用的模型的新版本時,你都必須把所有這些工作重做一遍。與傳統軟件不同,預先進行測試和調試仍然非常困難。你只能在Agent于現實世界中運行時,才知道它們將如何反應和回應。這意味著你必須持續實時監控并評估Agent的行為,并在發現不當行為時快速做出反應。
我們認為可以做得更好。今天,我很高興宣布推出AgentCore Evaluation。Evaluation是一個新的 AgentCore 服務,可以幫助開發者基于Agent的真實世界行為,持續檢查其質量。評估可以幫助你根據特定標準分析Agent的行為,例如我提到的正確性、可用性和有害性。它附帶 13 個預構建的評估器,用于常見的質量維度。當然,你也可以隨時使用自己偏好的提示和模型來構建系統,創建自己的自定義評分。
在測試階段,你可以輕松評估Agent,在廣泛部署之前糾正任何問題。例如,如果你打算升級到更高版本的模型,你可以運行評估來確認Agent是否保持了與當前版本相同水平的有用性。你也可以在生產環境中使用Evaluation,快速捕捉那些難以發現的質量下降。
8、Adobe 在 AWS 上的 AI 應用實踐(Shantanu Narayen發言)
Adobe 一直處于這場革命的前沿。從桌面出版的發明到數字文檔的起源,再到開創性的圖像和視頻進步,我們不斷推動可能性的邊界。十多年前,我們向基于云的訂閱模式的轉型,標志著我們與 AWS 關系的開始。正是亞馬遜的 EC2 和 S3 等服務,為 Adobe 的創新提供了可擴展且安全的基礎。
當我們過渡到AI 時代時,AWS 正在幫助我們更快地創新。它提供了我們所需的核心服務,正如 Matt 所說,用于訓練模型和部署Agent。這使我們能夠專注于 Adobe 最擅長的事情:在我們面向企業的各類數字體驗中釋放創意,這些體驗涵蓋商務專業人士、消費者、創作者、創意專業人士,以及營銷和 IT 專業人士。
在與創造力相關的AI 方面,我們正在為各種技能水平的人重新構想流程的每個階段。我們知道,超過 90% 的創作者現在都在積極使用以創意為中心的生成式 AI。為支持他們,我們將 AI 融入 Adobe Firefly——我們的全能創意平臺。它用于驅動我們旗艦 Creative Cloud 應用(如 Photoshop)中的 AI 創意工作流程,以及 Adobe Express(一款用于快速輕松創建合規品牌內容的應用程序)。例如,Adobe Firefly 模型驅動的“文本到圖像”、“文本到視頻”、“生成填充”和“生成重著色”等功能,都是在 P5 和 P6 Instances上進行訓練和使用的。
Acrobat Studio 使用 Amazon SageMaker 和 Amazon Bedrock 來訪問我們自己的和第三方模型,幫助數百萬用戶更快地進行研究、制定Policy、分析和協作。新的 Adobe PDF 產品也是一個對話式知識中心,由個性化 AI 助手支持,幫助消費者和商業專業人士實現協作。
最后,在AI 時代,營銷人員的角色已經演變為協調者,旨在為消費者和客戶提供引人入勝的客戶體驗。為支持他們,我們正在統一客戶參與的關鍵要素、內容供應鏈以及品牌可見性。Adobe Experience Platform 是推動此類客戶參與的核心基礎,它將 AI 驅動的應用和Agent匯聚在一起,以提高參與度和忠誠度。
該平臺的規模非常大,每天進行超過35 萬億次片段評估和超過 700 億次檔案激活。Experience Platform 使用 AWS 構建模塊以及創新的蜂窩架構運行。我們的共同客戶現在可以將 Redshift 等來源的數據攝取到 Adobe Experience Platform 中,創建客戶檔案,并利用這些受眾在 Adobe 的實時客戶數據平臺中注入數據。
我認為,與客戶互動的關鍵在于創建符合品牌的內容,并在正確的時間、通過正確的渠道、在恰到好處的時刻傳遞。由于營銷人員預計未來兩年內對內容的需求將增長五倍,因此每個企業都需要一個內容供應鏈來管理這一切。無論是在數據層——我們在此訓練領先
行業的Adobe Firefly 基礎模型,正如 Matt 所說,確保我們在 AI 模型方面提供選擇,以便我們能在創造性領域持續創新,并通過Agent編排來增強這一生態系統。最后,將 AI 集成到我們所有的應用中,使客戶能夠輕松實現價值,讓各種類型的組織在他們今天開展工作的地方采用并實現。站在人與計算機交互的這個交匯點上,我相信 Adobe 和 AWS 共同推動的 AI 變革,將重新定義為世界上數十億人服務的數字體驗。我們非常期待與大家攜手合作。
9、AWS 原生智能Agent解決方案
太棒了,Shantanu。非常感謝。看到 Adobe 在數字體驗方面的開創性工作,全部運行在 AWS 之上,真是令人振奮。
現在,借助我們提供的工具和服務,我們知道我們的客戶和合作伙伴將會構建大量極具影響力的Agent。但也可以預期,一些最強大、最具能力的智能Agent解決方案將直接來自 AWS。現在讓我們來深入探討其中的幾項。
當我們思考應該構建哪些Agent以及可以重新構想哪些體驗時,我們專注于那些我們認為可以為客戶帶來差異化專長的領域。例如,亞馬遜擁有一個龐大且異構的全球勞動力,我們理解將企業所有數據和系統串聯起來以賦能員工的重要性,以及其中坦率的復雜性。
做出優秀決策所需的所有數據,我們將其提供給一套功能強大的智能Agent。你可以快速獲得一套強大的 BI 功能,讓任何人都能輕松發現洞見,涵蓋所有結構化和非結構化的數據來源。我個人最喜歡的功能之一是它快速進行調查的能力。它可以調查復雜的主題,然后從你的內部數據存儲庫以及互聯網上的外部數據來源中提取信息,匯聚出有深度的見解和詳細研究報告,并附有來源引用,讓你確切知道信息來自何處。此外,你還可以創建快速流程,創建為你個人自動化日常重復任務的小型個人Agent,推動效率。
10、Adobe 在 AWS 上的 AI 應用實踐(May Habib發言)
如果全球最大的消費品公司之一瑪氏(Mars),能夠在短短幾秒內對每一張廣告圖片運行合規性檢查,節省數千小時的人工核查時間,因為檢查是即時完成的,那會怎樣?如果阿斯利康(AstraZeneca),這家創新藥物的制造商,能夠自動化在全球范圍內獲得治療批準所需的文書工作,節省數月艱苦的人工流程,并能更快地將救命療法送到患者手中,那會怎樣?如果全球科技先驅高通(Qualcomm),能夠實時發現營銷支出的最高效點,在節省數百萬成本的同時,顯著提升活動表現,那會怎樣?
這不僅僅是人工智能(AI)的承諾。這一切都在今天、此刻,由 Writer 的Agent AI(Agentic AI)實現。
我是May Habib,Writer 的聯合創始人兼首席執行官。在過去的五年里,我們一直與全球大型企業合作,在監管最嚴格的行業中,構建一個用于智能Agent工作的平臺。
在早期,我們發現大型語言模型(LLMs)所能實現的驚人成果,與滿足企業所需的可靠性、安全性和可控性之間存在著差距。為此,我們做出了一個大膽的決定——成為一個全棧平臺,具備企業所要求的精確性和合規性。這一平臺由我們自有的企業級 Palmyra 大語言模型驅動,并交付能夠處理最艱巨企業工作流程的Agent(Agents)。
要真正實現全棧愿景的規模化,我們需要一個彈性強、安全、并為企業級設計的基礎設施提供商。財富500 強中的大多數企業都在 AWS 上運行,其中也包括我們眾多的客戶。因此,與 AWS 合作是一個顯而易見的選擇。
AWS 作為云服務提供商,具有獨特的優勢,它既支持我們訓練前沿模型,又能夠安全地將我們的整個平臺部署給我們的企業客戶。
我們與AWS 的合作始于兩年前,從模型層開始。我們剛剛發布了最新的 Palmyra 大語言模型,并在排行榜上名列前茅。但隨著模型的規模變得更大,訓練和推理所需的計算能力也在不斷增長。AWS 技術棧的深度因此成為了我們的戰略優勢。
我們的基礎設施建立在SageMaker HyperPod 之上,這項服務為大規模模型訓練提供了強大的支持。我們使用P5 Instances(并很快將升級至 P6 Instances)來處理繁重的 GPU 工作負載,它們通過 Elastic Fabric Adapter (EFA) 相互連接。EFA 是實現高速通信的關鍵,它提供了更大的節點間帶寬,確保了我們訓練運行的快速和同步。
我們還將HyperPod 與 Amazon FSx for Lustre 結合使用,這使我們能夠以模型所需的速度獲取數據,同時將成本保持在可控范圍內。
這些努力帶來了巨大的成效:我們將運行時間縮短了三分之二,從六周縮短到了兩周。我們的訓練流水線可靠性提高了百分之九十。所有這些工作為我們構建最新的前沿模型Palmyra X5 提供了力量和穩定性,該模型正是直接在HyperPod 上訓練的。
Palmyra X5 提供了卓越的自適應推理能力、高達一百萬令牌的巨大上下文窗口,以及從最復雜的海量數據中提取業務洞察的近乎完美的準確性。
它以驚人的速度提供了這些能力:在僅22 秒內處理一百萬令牌的提示,并在 300 毫秒內完成多輪函數調用,而其成本卻低于其他最前沿模型的四分之一。
我們與AWS 的合作從來不只是為了打造快速而強大的模型,它始終致力于構建一個能夠變革企業運營方式的突破性 AI 平臺。以 Palmyra X5 為引擎,我們正在實現這一愿景。
通過Writer 平臺,像瑪氏、阿斯利康和高通這樣的企業團隊,能夠將Agent與數據、上下文和業務專有知識相連接,從而更高效地工作,這將轉變企業的關鍵流程,而這一切都無需業務用戶編寫一行代碼。
Playbooks(可執行手冊)對Writer 來說至關重要。它們允許團隊一次性記錄流程,將工具、數據和他們所依賴的系統連接起來,并將其轉化為可重復的智能Agent。一個可執行手冊變成了一個動態的、活生生的藍圖,指導著出色工作的完成。由于這些手冊可以在團隊之間共享,影響最大的手冊可以瞬間在整個組織內擴展。
在AWS 的幫助下,Writer 將很快推出下一代自我進化的(Self-Evolving)大語言模型。它們能夠學習組織的運作方式并即時預測請求。它們將成為世界上首批使用越多、性能就越能提升的智能Agent。
然而,所有這一切之上存在一個問題:對于那些負責安全與合規的領導者來說,當出現問題時,他們如何才能在確保安全和保障的前提下,賦能業務團隊進行創新?
Writer 首先必須是一個可互操作的平臺,一個能夠在規模上觀察、控制并連接你的Agent,并配備你已經信任的相應工具與保障措施。今天,我們正式將這一范式引入 Writer,推出了一套專為企業量身打造的強大監管工具。
我們為組織在Agent生命周期的各個階段提供了完全的可見性和控制。每個會話都被追蹤,每個輸出都符合合規要求,每個數據連接器都實時受到治理。
真正的互操作性意味著連接到你信任的系統。因此,我們的平臺可以與您已在使用的可觀測性、保護欄和系統協同工作。
從今天開始,我們非常高興地宣布Amazon Bedrock 的保護欄(Guardrails)現在可以直接與我們的平臺集成。這意味著如果你已經在Bedrock 中設置了Policy和安全規則,你可以將完全相同的保護措施應用到 Writer 上。你無需重建任何東西,就能獲得一個一致且合規的、覆蓋整個 AI 堆棧的控制層。
模型選擇對企業來說也非常重要。所以從今天開始,來自Amazon Bedrock 的模型可以直接在Writer 平臺內使用。現在,AWS 和 Writer 的客戶可以使用模型目錄在 Writer 上構建Agent,模型涵蓋了我們自己的 Palmyra 系列、今天發布的令人驚嘆的 Nova 模型以及更多模型,所有這些都在單一且受治理的環境中。這是在不犧牲安全性的前提下實現的終極靈活性。
對于像Vanguard 這樣的組織——他們是長期使用 Writer 和 AWS 的客戶,并且對信任有著零妥協要求——Writer 和 Bedrock 的集成,為他們提供了在大規模上負責任地創新所需的控制能力。
信任是公司從零散的個人電腦使用,走向真正受治理的全企業范圍內、具有實質影響的AI 戰略的關鍵。你無法擴展你不信任的事物。
在Writer,我們的愿景是賦能人們實現變革性的工作,我們很自豪能與 AWS 一起完成這項工作。謝謝。
11、AWS 開發者 AI 的優勢
非常感謝May。我們非常高興能幫助像 Writer 這樣的客戶,讓 AI 和智能Agent為他們的客戶變得切實可行。
一個我們較少提及的最終用戶群體是開發者。而事實證明,這正是AWS 的一個優勢領域,亞馬遜在這方面擁有深厚的專業知識。
我們知道,對于那些試圖快速現代化其應用程序的開發團隊來說,最大的痛點之一是處理技術債務。埃森哲(Accenture)估計,僅在美國,技術債務每年就使公司總計損失 2.4 萬億美元。高德納(Gartner)表示,如今百分之七十的 IT 預算被用于維護遺留系統。我們知道這是 AI 可以發揮作用的領域。這就是我們構建 AWS Transform 的原因,它旨在幫助客戶擺脫他們的傳統平臺。
![]()
12、AWS Transform Custom 發布
就在昨天,我們發布了AWS Transform Custom,它允許你創建自定義代碼轉換Agent,從而實現任何代碼、API、框架、運行時或語言翻譯的現代化,甚至是只在你們公司內部使用的編程語言或框架。客戶已經紛紛涌向它。
我們已經看到客戶進行從Angular 到 React 的遷移,將嵌入在 Excel 表格中的 VBA 腳本轉換為 Python,將Bash shell 腳本轉換為 Rust。一個很好的客戶案例是QAD,一家提供基于云的 ERP 解決方案和供應鏈服務的供應商。他們的客戶在將定制化的 Progress Software 專有高級業務語言舊版本,遷移到他們的QAD 自適應 ERP 平臺時遇到了困難。QAD 轉向了 AWS Transform,原本至少需要兩周時間才能完成的現代化任務,突然間在不到三天內就完成了。我們非常期待看到你們能夠改造的所有遺留代碼。
進行所有這些改造的重大好處之一是,它為開發者騰出了更多時間去創造發明,這正是讓我們感到興奮的地方。事實證明,如今開發者的構建速度比以往任何時候都快。過去一年里,AI 軟件工具經歷了迅速變化,我們已經從執行內聯制表符補全之類的功能中進化出來了。
我們認為你們都會喜歡Kiro 將如何改變你們的開發工作。我很高興今天宣布,對于任何符合條件的創業公司,如果在一個月內申請,我們將免費提供一年的Kiro 服務,最多可達100 個席位。
我們對Kiro 在改善開發者生活方面所產生的影響感到非常興奮。坦白說,我對這種開發速度所帶來的影響感到驚訝,我們在亞馬遜內部已經看到了這種影響。事實上,我們非常震撼,上周整個亞馬遜決定在內部將 Kiro 標準化為我們的官方AI 開發環境。
13、Frontier Agents 發布
人們在第一代AI 編碼工具中看到的只是效率提升,而現在這是數量級更高的效率提升。
我總會被問到,他們是怎么做到的?起初,團隊花了一點時間去完全理解如何最好地利用Agentic工具。他們很快就開始看到一些效率提升,但這些更多是逐步改進而非顛覆性改變。幾周后,他們有了一個頓悟時刻。他們意識到,要最大化利用這些Agent,就必須改變他們的工作流程,充分發揮Agent的優勢。他們不得不質疑一直以來關于如何編寫軟件的一些固有假設。團隊在此過程中學到了大量經驗,并發現了一整系列新的機會,關于Agent如何能夠讓團隊更快交付。
他們得到的第一個經驗是他們與這些Kiro Agent交互的方式。一開始,他們會向這些工具輸入小型任務以確保得到可靠的結果,最終團隊發現隨著他們向外擴展,他們自己反而成了瓶頸,他們不得不斷為Agent解決阻塞,因為Agent需要人工干預。
我們今天發布的是Frontier Agents,它們建立在三個關鍵要求之上:
自主性(Autonomous):你向它們指明一個目標,它們會自己想辦法去實現。
大規模可擴展性(Scalable):單個Agent可以同時執行多個并發任務,但你必須能夠進行分發,跨多個Instances、多種類型的Agent進行協作。
長期運行(Long-Running):它們可能會工作數小時甚至數天,以追求雄心勃勃的目標(有時坦率地說是模糊不清的目標),而無需人工干預或指示。
讓我介紹一下我們今天將發布的第一個Frontier Agent,那就是 Kiro Autonomous Agent。
Kiro Autonomous Agent是一種能夠變革開發者和團隊構建軟件方式的Agent,極大地提高了你們開發團隊的創新能力。Kiro 自主Agent在你的工作流程中并行運行,維護上下文并自動化開發任務,以便你的團隊始終保持動力。你只需從待辦事項中分配復雜任務給它,它就會獨立地找出完成這些工作的方式。
Kiro 現在可以自主運行,處理開發者所需的一整套事項,從交付新功能,到分揀錯誤,再到提高代碼覆蓋率。它能夠在會話之間維護狀態。讓我們來看看這在新的Kiro 自主Agent中是什么樣子。
首先,你將在Kiro.dev 上開始,并啟動與您的GitHub 倉庫相關的任務。你會描述你要解決的問題,然后Agent會使用該描述,并利用來自以往實現的所有推理和知識。在嘗試規劃任務時,它會提出它不理解的澄清性問題。憑借對你整個代碼庫的深度了解,它會快速識別出需要在所有選定倉庫中進行更新的位置,以及需要更新的庫。該Agent會識別出你擁有的每一個受影響的倉庫。
當它在處理PR(Pull Request)的錯誤處理時,它會把對前 14 個錯誤的學習應用進去。當它遇到類似的架構時,它會引用你之前做過的工作。你不需要每次都重新解釋你的代碼庫。它已經知道你的工作方式,并且隨著它所執行的每一個任務都會變得更好。我們認為這將幫助你更快地前進,并徹底改變開發工作。
我們重申一遍,安全始終是AWS 的首要任務。近二十年來,我們一直與客戶合作,幫助你們在云端保護自己的產品。因此,我們自然而然地思考:一個安全frontier agent會是什么樣子。我們知道每個客戶都希望產品是安全的,但這存在權衡。你把時間花在哪里?你是優先考慮改進現有功能的安全性,還是優先考慮在新功能發布時投入時間 ?在亞馬遜和 AWS,安全性深入融入我們所有的開發文化和實踐中。我們進行代碼審查,對系統架構進行安全審查。我們與由內部和外部專家組成的大型團隊進行大量滲透測試,以尋找漏洞。所有這些工作都在任何代碼進入生產環境之前完成。
然而,大多數客戶無法持續承擔這種做法。結果是,你可能不會一直做這些事情,或者一年只做幾次。隨著AI 大幅加速開發進程 ,這可能意味著多個版本發布正在推出,但你的代碼沒有經過嚴格的安全風險評估。我們堅信,為了實現安全,你必須從頭開始將其融入你所做的每件事中。
因此,我非常高興地宣布推出AWS Security Agent。這個Agent 將幫助你從一開始就構建安全的應用程序。AWS Security Agent 幫助你更有信心地交付產品。它將安全專業知識向上游嵌入,使你能夠更頻繁地保護系統。它主動審查你的設計文檔,并掃描你的代碼以查找漏洞。由于 Security Agent 直接與 GitHub Pull Request 集成 ,它將反饋直接提供給開發者的工作流中。
Security Agent 還可幫助進行滲透測試。它將滲透測試從一種緩慢且昂貴的實踐 ,變成了一種按需進行的實踐。它可以讓你持續驗證應用程序的安全態勢。
讓我快速演示它的工作原理。假設你的公司有一套獲批的存儲和處理信用卡信息的方法。如果一個開發者無意中采用了錯誤的方法,這可能意味著大量的返工,甚至在開發過程的后期放棄數月的工作。然而,AWS Security Agent 可以及早發現這些問題。它甚至可以在你寫一行代碼之前,從你的設計文檔中發現這些問題,因為它會始終檢查以確保你遵循團隊的最佳實踐。
當真正到了提交代碼的時刻,AWS Security Agent 會針對相同的要求審查你的 Pull Request 并標記任何問題。對于它發現的任何問題,它會為你提供簡明的修復步驟。當你的代碼完成時,你只需發起一次滲透測試 ,該代理會立即著手處理,實時向你展示其進展情況。完成時,你會得到經過驗證的結果,并附有建議的修復代碼以解決它發現的任何問題。不再需要等待資源,也不再需要聘請昂貴的外部顧問。
假設你有多個準備好部署到生產環境的應用。你可以并行啟動多個安全代理。這樣你就可以獲取并測試所有應用,而不會成為瓶頸。現在你寫代碼更快了,并且你部署得一樣快,因為你知道它是安全的。
當然,接下來是運行代碼。我們都知道,隨著系統的增長,你需要操作的范圍也會隨之擴大,這意味著需要增加DevOps 工作。這是我們在亞馬遜內部團隊擁有大量經驗的領域。在亞馬遜,我們始終堅信創造出色客戶體驗的最佳方式,是讓開發人員自己運行他們的代碼。我們多年來一直在實踐 DevOps。我們學到的是,隨著你的服務擴展,運營會吞噬你越來越多的時間。我們認為這是另一個可以將我們的專業知識交到你手中的領域。
AWS DevOps Agent是一個frontier agent,能夠解析并主動預防事件 ,持續提升你的可靠性和性能。AWS DevOps Agent 調查事件并識別可改進的運維措施,就像經驗豐富的 DevOps 工程師所做的那樣。它從你的資源及其關系中學習 ,包括你現有的服務器可觀測性解決方案、運行手冊、代碼倉庫和 CI/CD 管道。然后,它會將所有這些來源的遙測、代碼和部署數據進行關聯 ,并能夠理解應用資源之間的關系 ,包括多云和混合環境中的應用。
讓我向你展示這如何改變事件響應。假設發生了一個事件,警報響起。在你的值班工程師甚至來得及簽到之前,AWS DevOps Agent 會立即響應。在診斷中,它發現試圖連接到數據庫的 Lambda 函數的身份驗證錯誤率有所提升。它利用對你的應用拓撲結構和不同組件之間關系的了解 ,來獨立地從告警往回追溯,以找到問題的根本原因。
在這個例子中,假設你使用Dynatrace 作為你的可觀察性解決方案。AWS DevOps Agent 使用與 Dynatrace 的內置集成,以提供有關該事件的更多背景信息。它了解你所有的依賴關系,并且知道創建每一個資源的部署堆棧。當發現問題時,比如在這個案例中是對你的 Lambda 函數所做的 IAM 策略更改 ,它會告訴你是什么引入了該更改。事實證明,這是你在 CDK 代碼部署中的一個簡單錯誤。
在你的值班工程師登錄時,DevOps 前沿代理已經找到了問題、建議了更改 ,并已準備好讓值班人員審查該更改并批準修復。更棒的是,它還能讓你防止此類事件在未來發生。它通過建議在這些策略更改部署之前用 CI/CD 護欄加以攔截。
DevOps Agent 始終待命,快速且準確 ,讓事件響應與運營工作變得輕松。共同,這三種前沿代理——Hero 自主代理、AWS Security Agent 和 AWS DevOps Agent ——將徹底改變你的團隊構建、保護和運維軟件的方式。讓我們快速看看這里的未來可能是什么樣子。
![]()
14、核心 AWS 服務發布
本周Re:Invent 上,無論是人工智能還是代理化服務,都涌現出大量新創新。此外,還有一系列讓 AWS 非常興奮的發布。因為 AWS 范圍如此廣泛 ,我知道你們中很多人都希望聽到關于我們核心非人工智能產品和服務的出色新增功能。
我將在我們的核心AWS 服務中發布 25 項令人振奮的新產品。我打算只用 10 分鐘來完成介紹。
先從我們的計算產品說起。我們知道你們都很喜歡AWS 持續提供最廣泛的Instances選擇 ,因此您始終能為您的應用獲得最合適的Instances。
現在,很多人運行內存密集型工作負載,比如SAP HANA、SQL Server 或 EDA 等高強度應用。因此,今天我很高興地宣布我們下一代X系列大內存Instances。它們由定制的 Intel Xeon 6 處理器提供動力。這些Instances可提供多達 50% 的額外內存。
我也很高興地宣布下一代AMD EPYC Memory Pro 處理器 ,同樣地,為你提供3 TB的內存。
你們中很多人也運行用于安全或網絡應用的EC2 Instances。這些應用需要大量計算能力和超高速網絡。對于那些場景,我們宣布推出我們的C8ine Instances。這些Instances由定制的 Intel Xeon 6 處理器 驅動 、使用最新 Nitro v6 卡。它們每個 vCPU 提供 2.5 倍更高的分組性能。
那些需要超高速單線程頻率計算的應用怎么辦?這個也有。介紹一下我們的M8azn Instances ,它擁有云端可用的絕對最快的 CPU 時鐘頻率。這些Instances非常適合多人游戲、高頻交易和實時數據分析等應用場景。
今天,AWS 仍然是唯一一家提供基于 Apple Mac 的Instances ,而且它們非常受歡迎。因此,今天我很高興宣布兩款由最新 Apple 硬件驅動的新Instances。現在發布EC2 M3 Ultra Mac 和 EC2 M4 Max Mac Instances。開發者現在可以使用最新的Apple 硬件在 AWS 中構建、測試并簽署 Apple 應用。
好了,客戶喜歡使用Lambda 快速構建函數并在大規模運行代碼。Lambda 在你想要快速執行代碼時表現出色 ,但有時你會遇到這樣的用例:你的 Lambda 函數需要等待響應 ,就像等待在后臺運行的代理(agent)數小時,甚至幾天。我們希望讓你更容易編程 ,將權重直接傳入你的 Lambda 函數。所以今天我們宣布推出Lambda Durable Functions。耐久函數使您能夠輕松管理狀態,構建長期運行的工作負載。它們具有內置的錯誤處理和自動化恢復功能。
好吧,我們進展如何?八次發布,差不多三分鐘左右。好吧,我最好加快點。存儲產品發布
好吧,我們繼續講存儲。我們知道你們愛用S3。我之前提到過,S3 存儲了超過 500 萬億個對象,數百艾字節的數據。那是非常多的數據。
當我們在2006 年推出 S3 時,單個對象最大為 5 GB。幾年后,我們將其增加到 5 TB。在過去十年里,這個容量一直足夠大。但在過去幾年里,數據規模增長了很多。所以我們問自己,什么樣的對象大小才能滿足你們今天的所有需求?
我很高興今天宣布我們將S3 的最大對象大小提高 10 倍 ,達到 50 TB。但不僅僅是更大。我們知道你們也希望讓 S3 在批處理操作上更快。因此,從今天開始,我們正在提升大型批處理作業的批處理操作的性能 ,現在運行速度提升了 10 倍。
在去年的re:Invent 上,我宣布了 S3 Tables,這是一種為 Iceberg 表優化的新桶類型。它變得非常受歡迎。但隨著表格數據量開始快速增長 ,你們都在尋求我們能幫助你們省錢的方法。
所以今天,我們宣布為S3 Tables推出智能分層。這可以為您節省高達80% ,自動降低存儲在S3 Tables存儲桶中的數據的存儲成本。你們還要求我們讓復制這些表在不同區域之間變得更容易 ,這樣你們就能獲得一致的查詢性能。截止到今天 ,你現在可以自動將你的S3 Tables跨 AWS 區域和賬戶復制。
今年早些時候,我們為FSx for OpenZFS 推出了 S3 訪問點。這使您可以訪問 ZFS 文件系統的信息 ,就像它是 S3 中的數據一樣。今天,我們正在讓你能夠訪問更多的文件數據,通過將S3 訪問點擴展到 FSx,以支持 NetApp ONTAP。現在,ONTAP 客戶也可以無縫訪問他們的數據,就像數據在 S3 中一樣。
現在,你們擁有的增長最快的數據類型之一是向量嵌入,它們用于讓你的AI 模型更高效地工作 ,搜索并理解您的數據。今年早些時候,我們宣布了 S3 Vectors (S3 向量) 的預覽 ,這是首個原生支持存儲和查詢向量的云對象存儲。
今天,我很高興地宣布S3 Vectors 正式上線 (GA)。你現在可以存儲萬億級的向量在單個S3 存儲桶中 ,并將存儲和查詢的成本降低 90%。
我預計你們中的許多人會使用S3 Vectors 協同工作,配備高性能向量數據庫。今天,實現低延遲搜索向量嵌入最流行的方法是在 Amazon OpenSearch 中使用索引。但你們中的許多人問過我們,有沒有辦法加快這個過程 :創建我的所有數據的索引?
所以,今天我們很高興宣布在Amazon OpenSearch 中為向量索引提供 GPU 加速。通過使用GPUs 來為這些數據建立索引 ,你現在可以為數據建立索引快 10 倍 ,成本僅為四分之一。
好了,大家跟得上嗎?還有4 分鐘。太棒了。好了,已經發布 15 次,只剩幾分鐘了。我們繼續。
讓我們繼續講到EMR,這也是我們流行的大數據處理服務。我們發布的 EMR Serverless 四年前發布,深受客戶喜愛 ,因為它大大減少了運行 PB 級規模處理的復雜泥潭。但事實證明今天還不是完全無雜物的。客戶仍然必須配置和管理他們的 EMR 存儲,但現在不再需要了。從今天起,我們正在消除您必須進行配置本地存儲的需要用于您的EMR Serverless 集群。
好的,我們繼續講安全。今天,成千上萬的客戶依賴GuardDuty 來監控和保護他們的賬戶、應用程序和數據免受威脅。在剛過去的這個夏天,我們將 GuardDuty 的擴展威脅檢測添加到了 Amazon EKS。我們對看到的勢頭感到滿意。所以,當然,我們并沒有止步于此。
今天,我們將這一功能擴展到ECS。現在,您可以將AWS 最先進的威脅檢測能力用于您所有的容器和您的所有 EC2 Instances。這項功能對所有 GuardDuty 客戶均已啟用,且無需額外費用。
每位客戶都希望快速發現并修復安全問題,越快越好,越簡單越好。這就是我們推出Security Hub 的原因 ,它匯總來自 AWS 和第三方來源的安全數據 ,幫助你識別潛在的安全問題。今年早些時候,我們預覽了增強版 Security Hub。今天,我很高興地宣布Security Hub 已進入 GA。
今天,我們還宣布了若干新功能,包括近乎實時風險分析、一個趨勢儀表盤,以及一個新的簡化定價模型。運維團隊的生死取決于他們的日志數據。但那份日志數據無處不在。它們在CloudTrail 日志和 VPC 流日志和 WFT 日志 ,以及來自像 Okta 和 CrowdStrike 等第三方的日志。我們認為我們可以把這做得更好。
所以今天,我們宣布在CloudWatch 中推出一個新的統一數據存儲。這個存儲用于您的所有運營、安全與合規數據。它會自動從AWS 和第三方收集日志數據 ,并將其存儲在 S3 對象或S3 Tables中 ,以便更輕松、更快速地發現問題并解鎖新的洞察。
好了,大家跟緊我。我們快到了,我們就在沖刺階段。我們現在來談談數據庫。我知道你們中還有許多人仍在維護一些遺留的SQL Server 和 Oracle 數據庫。遷移走它們很難,但至少 AWS 讓管理變得更容易。不用擔心,我們會提供幫助。我從你們許多人那里聽到的一件事是,你們的傳統數據庫規模隨著時間增長得非常大 ,它們實際上比我們在 RDS 中支持的容量更大。
所以我很高興宣布我們正在增加RDS 的存儲容量 適用于 SQL Server 和 Oracle。容量從 64 TB 增加到 256 TB。這也帶來了 4 倍的 IOPS 和 IO 帶寬提升。這將大大簡化將現有工作負載從本地遷移,以便在AWS 上對它們進行擴展的過程。
我們也希望為你提供更多控制,以幫助你優化你的SQL Server 許可證并管理你的成本。所以,從今天開始我們推出幾項舉措。
您現在可以為SQL Server 數據庫Instances指定啟用的 vCPU 數量。這有助于降低來自 Microsoft 的按 CPU 計費許可成本。
今天我們還增加了對SQL Server 開發者版本的支持 ,這樣你就可以構建和測試你的應用程序無需許可費用。
哦,戰利品音樂要響起來了。好吧,那就意味著我只剩下幾秒鐘了。但我還有最后一件事,我想你們所有人都會喜歡。幾年前,我們推出了Compute Savings Plans (計算節省計劃) ,作為一種簡化方式,在我們整套計算產品上進行承諾。自那天起,我經常被問到 ,我什么時候能獲得針對數據庫的統一節省計劃 ?就在這里。
從今天起,我們推出數據庫節省計劃。這些計劃可為您在我們數據庫服務的所有使用上節省最多35%。
好了,搞定。在不到10 分鐘內 ,為你們帶來整整第二場主題演講價值的新功能。現在你們有整整四天的時間去外出學習 ,深入細節并開始創新發明。感謝大家來參加 re:Invent。盡情享受。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.