咨询电话
4008-888-888
手 机:13588888888
电 话:4008-888-888
传 真:+86-123-4567
邮 箱:9490489@qq.com
地 址:江苏省南京市玄武区玄武湖
电 话:4008-888-888
传 真:+86-123-4567
邮 箱:9490489@qq.com
地 址:江苏省南京市玄武区玄武湖

微信扫一扫
挑战英伟达!AMD推出能运行更大模型的AI芯片,也
来源:未知作者:万向娱乐日期:2023/06/14 22:48浏览:
AI算力商场的二号玩家、芯片厂商AMD推出全新人工智能GPU MI300系列芯片,与英伟达在人工智能算力商场打开竞争。
北京时间6月14日凌晨,AMD如期举办了“AMD数据中心与人工智能技术首映会”,并在会上推出的AI处理器MI300系列。其间,特别为大言语模型优化的MI300X将于今年晚些时候开端向部分客户发货。
AMD CEO苏姿丰先介绍MI300A,这是全球首款针对AI和高功能计算(HPC)的加速处理器(APU)加速器。在13个小芯片中遍及1460亿个晶体管。相比前代MI250,MI300的功能进步八倍,功率进步五倍。
随后,苏姿丰公布了本场发布会最受重视的产品——MI300X,这是一款为大言语模型进行了优化的版本。
“我喜爱这个芯片,”苏姿丰说,MI300X芯片及其CDNA架构是为大型言语模型和其他尖端人工智能模型设计的。
生成式人工智能使用程序的大型言语模型使用大量内存,因为它们运转越来越多的计算。AMD演示了MI300X运转400亿参数的Falcon模型。OpenAI的GPT-3模型有1750亿个参数。
她还用Hugging Face根据MI300X的大模型写了一首关于活动举办地旧金山的一首诗。
苏姿丰表明,MI300X供给的HBM(高带宽内存)密度是英伟达H100的2.4倍,HBM带宽是竞品的1.6倍。这意味着AMD可以运转比英伟达H100更大的模型。
“模型尺度越来越大,你实际上需求多个GPU来运转最新的大型言语模型,”苏姿丰指出,随着AMD芯片上内存的增加,开发人员将不需求那么多GPU,可为用户节约成本。
AMD还表明,将推出一款Infinity Architecture,在一个体系中集成8个M1300X加速器。英伟达和谷歌也开发了相似的体系,将8个或更多GPU集成在一个盒子里,用于人工智能使用。
好的芯片不仅是产品本身,还需求有一个好的生态。人工智能开发人员向来偏心英伟达芯片的一个原因是,它有一个开发完善的软件包,称为CUDA,使他们可以拜访芯片的核心硬件功能。
为了对标英伟达的CUDA,AMD推出了自己的芯片软件“ROCm”,打造自己的软件生态。
苏姿丰也对投资者和分析师表明,人工智能是该公司“最大、最具战略意义的长时间增长机会”,“我们以为,数据中心人工智能加速器(商场)将以超过50%的复合年增长率,从今年的300亿美元左右增长到2027年的1500亿美元以上。”
以ChatGPT等为首的大言语模型需求最顶尖功能的GPU来进行运算,现在这一商场英伟达处于绝对优势,具有80%的商场,而AMD则被视为一个有力的挑战者。
尽管AMD未披露价格,但此举或许会给英伟达GPU带来价格压力,如后者的H100,其价格可以到达3万美元以上。较低的GPU价格或许有助于下降服务生成人工智能使用程序的高成本。
不过,AMD这场发布会很多产品从功能上都处于“领导”位置,但资本商场并未拉抬AMD的股价,反而收跌3.61%,而同行英伟达则收涨3.90%,市值初次收于1万亿美元关口上方。
上一篇:万向娱乐|全球本土化的概念史
下一篇:没有了
下一篇:没有了
相关文章
- 2023/06/14挑战英伟达!AMD推出能运行更大模型的
- 2023/06/13万向娱乐|全球本土化的概念史
- 2023/06/12控糖,先吃饭还是先喝汤?
- 2023/06/11我与上海牌黑白电视机的一段缘分