您所在的位置:红商网 >> 天下汇频道 >> 正文
亚马逊等科技巨无霸坚定逐梦AI 资金押注“AI ASIC大浪潮”来袭

  随着DeepSeek引领的AI训练成本大幅下降,以及推理端Token成本骤减,AI代理以及生成式AI软件有望向各行各业加速渗透,从微软、Meta以及阿斯麦等西方世界科技巨头们的回应来看,他们纷纷赞叹了DeepSeek的创新,但并未因此动摇大规模投资AI的决心。他们认为DeepSeek引领的新技术路线有望带来AI成本的整体下降态势,对于AI应用端来说,必然存在更多的机遇和规模大得多的AI应用与推理端算力需求。

  关于2025年支出计划,亚马逊管理层预计将达到1000亿美元,并且亚马逊认为DeepSeek横空出世意味着未来推理端AI算力需求将大幅扩张,因此加大支出支持AI业务发展。首席执行官贾西表示:“我们不会在没有看到显著需求信号的情况下进行采购。当AWS扩大其资本支出,尤其是在像AI这样千载难逢的商业机会中时,我认为这对AWS业务的中长期发展是一个相当好的信号。

  在上周,谷歌、微软和Meta这三大巨头坚持向人工智能领域投入巨额资金。尽管面临DeepSeek所带来的低成本冲击波,但科技巨头们坚信,大规模投资将为未来无比庞大的推理端AI算力需求奠定重大基础。

  根据Visible Alpha的预测,微软2025年的资本支出预计将超过900亿美元,占其营收的30%以上。Facebook母公司Meta也大幅提升投资计划,Meta最近宣布计划将2025年资本支出提高60%以上,最高达650亿美元,同样占其营收的30%以上,计划用于与人工智能密切相关的项目,意味着继2024年疯狂砸钱超380亿美元投向人工智能等最前沿科技领域之后,Meta今年将继续砸重金加码布局AI。谷歌计划2025年投入750亿美元用于与AI等项目相关的资本支出,较去年525亿美元的支出大幅增长,远高于过去十年平均不到13%的水平。

  市场开始定价科技大厂们“烧钱狂潮”的最大赢家:AI ASIC

  随着美国科技巨头们坚定向人工智能领域砸巨资,受益最大的赢家势力可能是两大AI ASIC巨头——博通与Marvell,凭借在芯片间互联通信以及芯片间数据高速传输领域的技术领导地位,近年来博通和Marvell乃AI ASIC市场最核心力量。

  微软、亚马逊、谷歌以及Meta,乃至生成式AI领军者OpenAI,无一例外都在联手博通或者Marvell自研AI ASIC芯片,用于海量推理端AI算力部署。因此AI ASIC未来市场份额扩张之势有望大幅强于AI GPU,进而趋于份额对等,而不是当前AI GPU一家独大局面——占据AI芯片领域高达90%份额,这也是为何近日博通与Marvell股价涨势强于英伟达与AMD

  摩根士丹利近日发布的研报显示,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,年复合增长率达到34%。不过大摩表示,AI ASIC的崛起并不意味着英伟达AI GPU前景断崖式下滑,该机构认为这两种芯片体系将长期共存,为终端需求场景提供结合两者优势的解决方案。另一华尔街大行花旗表示,AI ASIC最终可能更多地与推理密切相关,随着推理端AI算力需求不断增加,AI ASIC市场份额将不断扩大。

  此外,大摩通过TCO模型对比了AI ASIC和AI GPU在AI训练和推理任务中的成本效益,结果显示ASIC的初始成本较低,尤其适合预算有限的云服务提供商们,因此大摩看好博通与Marvell股价前景,认为它们受益于“DeepSeek冲击波”带来的推理算力需求激增。

  在谷歌与Meta业绩电话会议上,皮查伊以及扎克伯格均表示将加大力度携手芯片厂商博通推出自研AI ASIC,这两大巨头的AI ASIC技术合作伙伴都是定制化芯片领域领军者博通,比如谷歌联手博通打造的TPU(Tensor Processing Unit)就是一种最典型的AI ASIC。Meta此前与博通共同设计了Meta的第一代和第二代AI训练/推理加速处理器,预计Meta与博通将在2025年加快研发Meta下一代AI芯片 MTIA 3。获得微软巨额投资以及达成深度合作的OpenAI去年10月表示,将携手博通开发OpenAI首款AI ASIC芯片。

  亚马逊管理层则表示将以更大规模来部署AI ASIC算力基础设施,Marvell为亚马逊AWSAI ASIC技术合作伙伴,去年12月Marvell宣布同亚马逊AWS达成一份为期五年的协议,进一步扩展AI ASIC战略合作关系,Marvell将在5年内携手亚马逊推出多代数据中心AI芯片产品。

  展望未来AI算力前景,DeepSeek R1横空出世也重磅宣告随着训练/推理步入“极致压缩+高效强化训练+AI推理算力大幅简化”的低成本新范式,属于AI ASIC的时代降临。DeepSeek R1重磅出炉之后,全球科技股投资者以及推崇AI的科技界粉丝们对于英伟达高性能AI GPU(Hopper架构与Blackwell架构GPU)的信仰可谓出现重大裂痕,投资者们不禁怀疑:大厂们联手博通/Marvell推出自研AI ASIC(即定制化AI芯片)岂不是性价比高得多?

  随着大模型架构逐渐向几种成熟范式收敛(例如标准化的 Transformer 解码器、Diffusion 模型流水线),ASIC可以更容易地吃下主流推理端算力负载。并且某些云服务商或行业巨头会深度耦合软件栈,让 ASIC兼容常见的网络算子,并提供优秀的开发者工具,这将加速 ASIC 推理在常态化/海量化场景中的普及。

  展望未来算力前景,英伟达AI GPU可能更多专注在超大规模前沿探索性的训练、变化极快的多模态或新结构快速试验,以及 HPC、图形渲染、可视分析等通用算力。AI ASIC则聚焦于深度学习特定算子/数据流做极致优化,也就是擅长稳定结构推理、批量高通量、高能效比。比如,如果一家云平台的AI工作负载中大量使用针对 CNN/Transformer 中常见算子(比如矩阵乘法、卷积、LayerNorm、Attention等),大多AI ASIC会针对这些算子做深度定制;图像识别(ResNet系列、ViT)、基于Transformer的自动语音识别(Transformer ASR)、Transformer Decoder-only、部分多模态流水线固定化后,都可以基于ASIC进行极致优化。

  ASIC通常采用数据流架构 (Dataflow) 或张量处理单元等方式,对矩阵乘法、卷积、激活函数、注意力层等进行高度优化。一旦某些大模型架构在商用场景中趋于稳定,且推理调用量极大,则基于ASIC的专用定制硬件可以将单位能耗与单位成本做到大幅优于通用 GPU(通常可达 2~10 倍不等能效提升)。因此随着推理端越来越聚焦成本与能效,AI ASIC 具备更大规模的配置前景,特别是在神经网络结构逐渐固化的常态化、批量化AI推理任务上。

  就像大摩预测的那样,长远来看,两者将和谐共存,中期左右AI ASIC市场份额有望大幅扩张。英伟达通用GPU将聚焦于复杂多变场景与前沿研究,ASIC 聚焦高频稳定、大规模的AI推理负载以及一部分成熟稳定的固化训练流程。

  来源:智通财经APP

2页 上一页  [1] [2] 

       红商网优质内容还将同步分发到公众号、视频号、头条号、西瓜抖音、网易号、搜狐号、企鹅号、百家号、好看视频、新浪微博等国内主力流量平台。
      东治书院2024级易学文士班(第二届)报名者必读
      『独贾参考』:独特视角,洞悉商业世相。
      【耕菑草堂】巴山杂花土蜂蜜,爱家人,送亲友,助养生
      解惑 | “格物致知”的“格”到底是什么意思?
      ❤❤❤【拙话】儒学之流变❤❤❤
      易经 | 艮卦究竟在讲什么?兼斥《翦商》之荒谬
      大风水,小风水,风水人
      ❤❤❤人的一生拜一位好老师太重要了❤❤❤
      如何成为一个受人尊敬的易学家?
      成功一定有道,跟着成功的人,学习成功之道。
      关注『书仙笙』:结茅深山读仙经,擅闯人间迷烟火。
      研究报告、榜单收录、高管收录、品牌收录、企业通稿、行业会务
      ★★★你有买点,我有流量,势必点石成金!★★★