凭仗宣告的片强新品,AMD正式向英伟达的推出AI芯片王者位置建议挑战 。
美东光阴6月13日周二,数模AMD举行了新品宣告会,英伟运行亿参其中最重磅的达A敌A多达新品当属性用于磨炼大模子的ADM开始进GPU Instinct MI300。
AMD CEO苏姿丰介绍,片强天生式AI以及狂语言模子(LLM)需要电脑的推出算力以及内存大幅后退 。她估量,数模往年,英伟运行亿参数据中间AI 减速器的达A敌A多达市场将抵达300亿美元摆布 ,到2027 年将逾越1500 亿美元 ,片强复合年削减率逾越 50%。推出
苏姿丰演示介绍,数模AMD的Instinct MI300A号称全天下首款针对于AI以及高功能合计(HPC)的减速处置器(APU)减速器 。在13个小芯片中普遍1460亿个晶体管 。
它接管CDNA 3 GPU架谈判24个Zen 4 CPU内核,配置装备部署128GB的HBM3内存 。比照前代MI250,MI300的功能后退八倍,功能后退五倍 。AMD在宣告会稍早介绍,新的Zen 4c内核比尺度的Zen 4内核密度更高,比尺度Zen 4的内核小35% ,同时坚持100%的软件兼容性。
AMD推出一款GPU专用的MI300,即MI300X ,该芯片是针对于LLM的优化版 ,具备192GB的HBM3内存 、5.2TB/秒的带宽以及 896GB/秒的Infinity Fabric 带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。
AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这象征着 ,AMD的芯片可能运行比英伟达芯片更大的模子 。
Lisa Su介绍 ,MI300X可能反对于400亿个参数的Hugging Face AI 模子运行,并演示了让这个LLM写一首对于旧金山的诗 。这是全天下初次在单个GPU上运行这么大的模子 。单个MI300X可能运行一个参数多达800亿的模子。
LLM需要的GPU更少,给开拓者带来的直接短处便是 ,可能节约老本。
AMD还宣告了AMD Instinct 平台,它具备八个MI300X,接管行业尺度OCP妄想,提供合计1.5TB 的HBM3 内存。
苏姿丰称 ,适用于CPU以及GPU的版本MI300A如今就已经出样 ,MI300X以及八个GPU的Instinct 平台将在往年第三季度出样,第四季度正式推出。
亚马逊、微软、Meta已经或者将要运用AMD新品
除了AI芯片 ,AMD这次宣告会还介绍了第四代EPYC(霄龙)处置器,特意是在全天下可用的云实例方面的妨碍。
AMD第四代EPYC(霄龙)在云使命负载的功能是英特尔竞品处置器的1.8倍 ,在企业使命负载中的处置速率是英特尔竞品的1.9倍。
AMD称 ,第四代EPYC(霄龙)启用新的Zen 4c内核,比英特尔Xeon 8490H的功能高1.9倍。由于绝大少数AI在CPU上运行,AMD在CPU AI规模具备相对于的争先优势。
亚马逊周二宣告 ,在用AWS Nitro以及第四代EPYC 处置器打造新的实例。亚马逊云的EC2 M7a实例现已经提供预览版,功能比M6a实例高50%。
AMD也将在外部使掷中运用EC2 M7a实例 ,搜罗芯片妄想的EDA软件。AMD还宣告,往年7月 ,甲骨文将推出Genoa E5实例 。
AMD宣告的EPYC Bergamo处置器是业界首款x86原生CPU ,有128个内核 ,每一个插槽256个线程 。这象征着一个艰深的2U 4 节点平台将有 2048 个线程 。
Bergamo比前代Milan的功能高2.5倍 ,如今就能向AMD的云客户发货。
Meta的公司代表介绍 ,Meta在根基配置装备部署中运用EPYC处置器 。Meta也对于基于AMD的处置器妄想开源。Meta方面称 ,妄想为其根基配置装备部署运用云处置器Bergamo,还要将Bergamo用于其存储平台 。
AMD同时推出本周二上市的CPU Genoa-X。它将削减逾越1GB 的96核L3缓存 。它共有四个SKU,16到 96 个内核。由于SP5插槽兼容 ,以是它可能与现有的EPYC 平台一起运用。
微软的公司代表以及AMD一道揭示了微软云Azure HPC的功能,在EPYC处置器的帮手下,Azure四年内的功能提升四倍。
Azure宣告,搭载Genoa-X的HBv4以及HX系列实例 、以及新的HBv3实例周全上市 。Azure还称 ,功能最高可较市面基准提升5.7倍。
AMD此前经由笼络Pensando取患上DPU技术。这次AMD称,其P4 DPU架构是天下上最智能的DPU,它能淘汰数据中间的收集开销,并后退了效率器的可规画性