自從 ChatGPT 掀起 AI 熱潮,市場對 NVIDIA GPU 需求激增,導致晶片短缺,與此同時,科技公司紛紛將生成式 AI 技術導入產品,更需要考量算力和成本。亞馬遜持續採取雙管齊下的方式,不僅積極開發自研晶片,也讓客戶選擇使用 NVIDIA 最新產品。
AWS(Amazon Web Services)年度盛會──AWS re:Invent 2023 上,亞馬遜發表全新 Trainium2 AI 晶片和 Graviton4 處理器,並與 NVIDIA 擴大策略合作、引進更多產品。
Trainium2 晶片專為訓練 AI 模型所建構,將支援 EC Trn2 執行個體。相較 2020 年 12 月推出的第一代 Trainium 晶片,第二代的效能提高 4 倍、能源效率提高 2 倍,包括 Databricks、Anthropic 計劃使用這款晶片投入 AI 模型開發。
以 Arm 架構為基礎的 Graviton4 處理器,比起現有 Graviton3 處理器運算效能提升 30%、核心數量增加 50%、記憶體頻寬增加 75%,不僅能耗可低於英特爾或 AMD 的資料中心處理器,更能保護需要高度加密需求的 AI 訓練資料和工作負載。亞馬遜表示,AWS 已有超過 5 萬家客戶正在使用 Graviton 系列處理器,Graviton4 處理器將支援 EC2 R8g 執行個體,目前提供預覽版,計劃在未來幾個月內全面供應。
▲ Graviton4 和 Trainium2 原型晶片。(Source:亞馬遜)
在與 NVIDIA 合作方面,AWS 推出 3 款 Amazon Elastic Compute Cloud(Amazon EC2)執行個體:P5e 執行個體配置 NVIDIA H200 GPU,瞄準大規模與先進生成式 AI 和 HPC 工作負載;G6、G6e 執行個體分別配置 NVIDIA L4 GPU、NVIDIA L40S GPU,其中 G6e 執行個體特別適合用來開發 3D 工作流程、數位分身以及其他使用 NVIDIA Omniverse 的應用,這些執行個體都能提供客戶採用。
NVIDIA 更與 AWS 合作推動 Project Ceiba,聯手設計全球最快、由 GPU 驅動的 AI 超級電腦,配備 NVIDIA GH200 NVL32 多節點平台與 Amazon EFA 互連技術的大規模系統由 AWS 代管,可為 NVIDIA 研發團隊提供服務。這部開創先河的 AI 超級電腦配置 16,384 顆 NVIDIA GH200 超級晶片,能處理 65exaflops 速度等級的 AI 運算。