21世纪经济报道记者倪雨晴、实习生朱梓烨 深圳报道
随着彼岸ChatGPT的快速发展,国内大型应用也如火如荼。“我们最近刚刚购买了百度文心的标准通用接口服务,行业采购需求非常强劲。传统企业数字化负责人告诉《21世纪商业先驱报》。除了标准接口外,他们还提供云部署(公有云)和本地化部署(私有云)两种服务。其中,云部署的基本成本为每年20万,需求公司一般每年10-20万,成本为100万,本地私有云部署需要1000万部署成本。”可以看出,大规模使用生成人工智能的成本仍然很高。背后的两个事实是,人工智能订单继续增加,核心硬件成本GPU上升。一位人工智能领域的资深从业者甚至对《21世纪经济报道》记者说:“你正在为你从未见过的图形卡付费。目前,几乎所有消费者使用的人工智能服务都是由算法提供的。例如,短视频的视频编辑系统和推荐系统都是由算法驱动的。所有这些算法的底部都需要调用GPU。这意味着,只要你刷抖音,你就可以直接或间接地使用GPU。”在新东风的帮助下,GPU代表英伟达一举站在AI的“光顶”上。而人工智能江湖中的门派也在疯狂迭代,“围攻”光明顶。芯片巨头们准备出发,英特尔已经发布了Gaudi 2、Gaudi即将推出 3、Falcon正在开发中 Shores;AMD发布了MI300系列,MI400在路上;国内华为升腾和AI芯片企业也在为计算能力提供新的选择。大型互联网制造商也在加快自主研究的步伐。亚马逊有机器学习训练芯片Trainium和推理芯片Inferentiaia;谷歌已经开发了很长一段时间,今年发布了第五代定制张量处理器(TPU)芯片TPUV5e用于大型训练和推理;最近,微软将于下个月发布人工智能芯片,代号“Athena”;甚至有报道称,OpenAI也在探索人工智能芯片的自主研究。在人工智能芯片的战场上,硝烟继续四起。在人工智能芯片的战场上,硝烟继续四起。英特尔和AMD的猛攻今年以来,英特尔和AMD率先“主攻”,在他们的年会上,AI是绝对的主题词。从各自的布局来看,其实两者都有丰富的产品矩阵,人工智能芯片主要分为GPU、FPGA和ASIC、英特尔和AMD通过收购和研发覆盖了三种芯片,但两者的重点不同。从英特尔的动作来看,今年最受关注的是Gaudi系列,属于ASIC类。Gaudi已发布,Gaudi 2芯片是专门为训练大语言模型而设计的,采用7纳米工艺,有24个张量处理器核心,英特尔还为中国市场推出了Gaudi的定制版 2.竞争市场的野心可见一斑。值得注意的是,Gaudi系列芯片是基于英特尔之前收购的AI公司Habana,规划中的新AIFalcon 基于Habana的架构,Shores将与英特尔原有的GPU等技术相结合,因此Falcona Shores也引起了业界的关注。对于FPGA业务,英特尔在10月初宣布将其拆分。此前,英特尔投入巨资收购了FPGA领先的Altera。数据中心一直是FPGA的重要发展市场,现在该业务即将“独立”和IPO。PSG(可编程解决方案业务部)负责英特尔FPGA。英特尔表示,PSG预计将于2024年1月1日独立运营。英特尔还预计,PSG将在2024年第一季度财务报告中作为一个独立的业务部门报告。英特尔将在未来两到三年内保留大部分股权,并计划首次公开发行PSG,并可能与私人投资者讨论加速业务增长的机会。事实上,PSG的表现相当稳定,PSG团队预计将于2023年推出15款新产品,目前已推出11款。FPGA行业也在增长,据第三方估计,FPGA市场将以复合年增长率增长(CAGR)从2023年的80亿美元收入增加到2027年的115亿美元,增速超过9%。剥离更多的是因为英特尔正在重组整体业务结构,希望PSG能够更独立、更灵活地运作,获得更大的增长空间。对英特尔来说,它正专注于IDM的新规划,重返工艺节奏,并在人工智能的新空间中进步。在今年的on技术创新会议上,英特尔高级副总裁、英特尔中国董事长王瑞在接受《21世纪商业先驱报》采访时表示:“人们经常问我,谁是英特尔的竞争对手?我一直说英特尔的竞争对手是我自己。任何大公司都是一样的。当你继续前进时,你经常绊倒自己。认识到问题后,找到改变的策略,真正重新转动这个引擎,是一个艰难的过程。”“她进一步说:“她说:“”Pat(英特尔首席执行官帕特·基辛格)回来后,我们可以看到我们的里程碑是言行一致的。英特尔重新抓住了他的进步。外部环境千变万化,我们有这么多优点,只要我们实施了自己的执行力,就一定有机会。例如,人工智能,我们希望与自己的客户和生态系统一起进行优化。”在王锐看来,从Gaudi2、Gaudi3到Falcon Shores,此外,最强大的人工智能应用程序是英特尔未来加速器和人工智能计算开发的路线图。英特尔强调,人工智能无处不在,即在客户端、边缘端和云端。“几十年来,每个人都在推动人工智能的发展,现在有很多时候梦想已经实现了。至于ChatGPT的热潮,我认为ChatGPT目前的应用只是一个非常短的中间步骤,未来会看到越来越多的应用。王锐告诉记者。看看AMD,今年6月,AMD发布了用于训练大模型GPU Instinct MI300系列主要包括MI300A、MI300X两个版本。AMD 首席执行官苏子丰表示,这是世界上第一个为人工智能和高性能计算的人工智能(HPC)加速处理器(APU)加速器。与此同时,AMD正在积极开发更先进的MI400系列加速器。另外,在FPGA方面,AMD为了扩大数据中心市场,已经收购了赛灵思进行整合。日前,天丰国际分析师郭明在社交平台上表示,AMDAI芯片出货量预计将在2024年和2025年快速增长。到2024年,AMD的AI芯片出货量(主要是MI300A)预计将达到英伟达出货量的10%左右,微软有望成为 AMD AI 亚马逊是芯片最大的客户。如果微软与AMD的合作进展顺利,AMD将获得Meta和谷歌的订单,预计2025年AMDAI芯片的出货量将达到英伟达(基于Cowos包装技术)的30%以上。与此同时,AMD也在积极布局AI领域。今年8月,AI软件公司Nod连续收购了两家AI企业.为了提高其人工智能软件的开发能力,ai和来自法国的人工智能初创公司Mipsology。根据公开信息,Nod.人工智能主要为大型数据中心运营商和其他客户提供优化的人工智能解决方案,并开发了由开发者工具、库和模型组成的软件生态系统。Mipsology是AMD的长期合作伙伴,一直在为AMD开发人工智能推理和优化解决方案和工具,其旗舰产品是Zebra AI软件。AMD总裁Victortor Peng在接受媒体采访时表示,最新收购是实施AMD“建立AMD芯片开发的AI软件集合”战略。大力投资AMD计划使用人工智能芯片所需的关键软件,这也被业界视为AMD追赶英伟达的策略之一。互联网自主研发芯片大军因特网公司是GPU的核心用户,但与此同时,巨头们早已开启了AI芯片自主研发之路。一方面,考虑到成本和多渠道供应,另一方面,它也根据自己的业务需求定制,以增强竞争力。其人工智能芯片基本上用于公司业务,而不是在公共市场上销售。最近的热点是微软和OpenAI。据媒体报道,微软正在开发自己的人工智能芯片,该芯片将于下个月首次推出,芯片代码为“雅典娜”(Athena)数据中心服务器,类似于英伟达的图形处理器,旨在训练和运行大型语言模型。如果芯片顺利推出,将减少微软对英伟达芯片的依赖,降低成本。据报道,“Athena“竞争目标剑指英伟达的H100 GPU。早在今年5月,就有消息称微软为加强AMD人工智能芯片研发提供财务支持,并与之合作开发代号为“Athena自研人工智能芯片。该报告还称,相关计划已于2019年开始,目前微软内部至少有一些计划 300名员工从事代号“Athena芯片研究计划。也可以看出,芯片制造商和互联网制造商的合作模式更加深入和多样化。ag体育平台特斯拉创始人马斯克在财务报告会上表示,他在D1芯片的研发上投资了10多亿美元,因为特斯拉无法获得足够的英伟达GPU。如今,OpenAI可能成为人工智能自主开发芯片的新人。据媒体报道,OpenAI至少从去年开始讨论各种解决方案,以解决人工智能芯片成本高、短缺等问题。包括开发自己的人工智能芯片,与英伟达在内的芯片制造商更密切地合作,并评估加快开发的潜在收购目标,从而使人工智能芯片的供应来源更加多样化,而不限于英伟达。ag体官方网站通过一组数据,我们可以看到训练大模型对GPU的需求量很大。根据TrendForce集邦咨询向《21世纪商业先驱报》提供的数据,由于生成人工智能必须投入大量数据进行培训,因此必须使用大量高效的GPU来缩短培训。以ChatGPT背后的GPT模型为例,其训练参数从2018年约1.2亿人次飙升至2020年近1800亿人次,预计GPU需求量约2万人次,预计未来将达到3万人次(以英伟达A100为主)。事实上,以亚马逊和谷歌为代表的互联网巨头已经投身其中。以谷歌为例,TPU已经开发了很长时间。最新推出的第五代芯片TPUV5e用于大模型训练和推理。与上一代芯片相比,TPUV5e的训练性能提高了2倍,每美元的推理性能提高了2.5倍。谷歌云还将这款新产品描述为“超级计算机”,强调将性能与成本降低相结合,使更多组织能够培训和部署更大、更复杂的人工智能模型。TPU也与谷歌的云服务紧密结合,谷歌云也将由英伟达推出 H100 A3GPU提供动力 VM,前一代A2可以 提供三倍的训练性能。谷歌作为人工智能的老手,从云端、终端、芯片、大型模型、平台工具等方面进行了全覆盖。和微软一样,它不仅是云计算的重要参与者,也是应用程序的大师。在生成人工智能的普及趋势下,谷歌的先驱者也关注如何实施人工智能。作为全球云计算王者,亚马逊也在不断迭代自研芯片。此前,亚马逊发布了基于自主研发的人工智能训练芯片Trainium和推理芯片Inferentia。亚马逊表示,Trainium的云服务器将大型培训成本降低了50%,最多可以连接3万个Trainium芯片,提供超过6个 exaflops的计算能力集群,连接带宽可达1600gbps,与目前AI服务器之间的最高连接带宽相比,Inferentia2优化了大模型推理,将推理的性价比提高了40%。亚马逊云科技全球产品副总裁Matttttttt Wood今年在接受媒体采访时表示,芯片只是人工智能图片的一部分。一方面,客户可以在亚马逊云技术云上使用英伟达等芯片;另一方面,自主研发的人工智能培训芯片Trainium在网络互联网等领域仍具有显著优势,降低了成本。看看中国,BAT和其他巨头已经进入,如百度昆仑芯片,针对云人工智能通用芯片;阿里推出了高性能推理人工智能芯片包含光系列;腾讯自主研发的人工智能推理芯片紫晓已经大规模生产,并在多个头部业务实施。目前,它已在腾讯会议的实时字幕上全面推出;字节跳动还表示,它正在组建相关团队,并在人工智能芯片领域进行一些探索。IDC亚太研究总监郭俊丽告诉《21世纪商业先驱报》,互联网巨头最近通过开发人工智能芯片,包括其他芯片制造商,希望实现供应商多元化,同时获得更好的控制,提高产品适应性,更好地匹配产品开发节奏。她进一步分析道:“从长远来看,这一趋势会对英伟达的业务产生影响,但不会太大。她进一步分析道:“从长远来看,这一趋势将对英伟达的业务产生影响,但不会太大。因为芯片设计和生产将对互联网公司面临一些挑战。”一是芯片设计技术复杂,计算能力高的芯片结构非常复杂,计算单元、存储访问和芯片互联需要丰富的经验和仔细考虑;二是软件生态非常关键。英伟达长期建设的CUDA生态系统是迄今为止最发达、最广泛的生态系统,也是深度学习数据库中最有力的支持。很难撼动其地位;三是芯片生产各大技术巨头要解决的挑战是获得产能、保持良好率、先进包装技术等环节。“总的来说,英伟达的垄断地位不是一蹴而就的。各大科技巨头要想突破人工智能算力芯片,必须不断积累专利、核心技术、人才建设、生态建设等方面的突破。采用自研 采购可能是一种更合适的策略。郭俊丽总结道。英伟达的AI版图目前,英伟达仍稳坐GPU王座。最近,英伟达的最新路线图被曝光,Arm和X86架构的芯片将被更新。许多业内人士告诉记者,产品更强大,代际差距进一步扩大。一方面,GPU的需求仍在增加。集邦咨询预计到2025年,全球将有5款等同于ChatGPT的超大型AIGC产品,25款Midjourney的中型AIGC产品,以及 根据80款小型AIGC产品的估计,上述计算资源至少为145600~23700个英伟达A100 GPU。目前主要搭载NVIDIA A100、H100、AMD MI300和Google等大型CSP业主、AWS等自主研发ASIC的AI服务器增长需求较强,2023年AI服务器出货量(包括GPUU)、FPGA、ASIC等)出货量预计近120万台,年增长率近38%,AI芯片出货量同步看涨,预计增长将超过50%。据研究机构Omdia透露,英伟达在2023年第二季度发货了900吨 据估计,H100显卡是一块 H100 显卡的重量约为3公斤。据研究机构Omdia透露,英伟达在2023年第二季度发货了900吨 据估计,H100显卡是一块 H100 显卡的重量约为3公斤。因此,可以计算出,英伟达在第二季度卖出了30万元左右的H100显卡,这是一个巨大的数字。Omdia表示,英伟达预计将在未来几个季度销售相同数量的GPU,因此该公司预计今年将销售约3600吨H100吨 GPU,也就是说,每年大约有120万H1000 GPU。另一方面,除了硬件供不应求外,英伟达今年在人工智能领域的投资与云计算的布局也同样引人注目。为了保证自己在人工智能领域的持续领先地位,英伟达不仅要在技术上更新计算能力更强的芯片,还要参与人工智能生态领域的其他环节。今年,英伟达加强了收购和投资的道路。据《21世纪商业先驱报》记者不完全统计,英伟达自今年年初以来投资收购了10多家人工智能初创企业,试图改善人工智能领域产业链的布局。随后,英伟达进行了多项投资。总的来说,英伟达的投资主要分为四类:云服务提供商、人工智能软件和应用企业、人工智能芯片公司和“AI 其他领域的合作企业。在云服务提供商方面,英伟达4月份参与了Coreweave2.21亿美元的B轮融资,7月份被媒体报道为3亿美元的云提供商Lambda Labs,交易即将达成。在人工智能软件企业方面,英伟达的投资更加频繁和多样化。早在今年2月,英伟达就宣布收购人工智能初创公司Omniml,其主要产品是Omnimizer,一个旨在快速、轻松地大规模优化人工智能的平台。机器学习模型可以通过OmniML提供的技术和产品进行小型化,并且可以在边缘设备上运行,而不是依赖云计算。3月,英伟达参与了Adept公司3.5亿美元的B轮融资,专注于人工智能模型开发;随后,从6月到7月,三家大型语言模型开发企业Cohere投资、Inflection 来自德国的人工智能和Aleph Alpha,参与了这三家公司2.7亿美元的投资,13亿美元的融资,1.12亿美元的融资。此外,英伟达还参与了AI视频编辑器公司Runway1.41亿美元的融资,OpenAI的知名竞争对手AI21 Labs今年C轮融资1.55亿美元,Imbue投资2亿美元,试图打造AI代理工具平台。最近,英伟达的投资方向越来越多样化。除了AI芯片初创公司Enfabrica1.25亿美元的融资外,它还投资了一家制药公司Recursion和一家机器人公司Recursion。可以看出,英伟达在人工智能生态中的布局积极关注软件和应用企业,但同时也将棋子放在了更广泛的人工智能合作应用领域。英伟达在原有人工智能的基础上,进一步拓宽了护城河。特别是在云计算领域,英伟达也以自己的方式进入云服务市场。今年,英伟达提出了云服务解决方案NVIDIA AI foundations,企业可以通过 NVIDIA DGX Cloud 快速使用生成人工智能。英伟达创始人黄仁勋表示,要做“AI界台积电”。台积电大大降低了芯片设计公司的生产门槛。英伟达还应发挥OEM的作用,通过与大型模型制造商和云制造商合作,提供具有成本效益的云服务。英伟达在8月份的季度报告中表示,向开发人工智能或虚拟现实应用程序的公司销售软件是一个3000亿美元的潜在收入机会。首席财务官Coletetetetet Kress还在季度财务报告电话会议上指出,软件业务的年收入仅比芯片业务高出数亿美元,但预计仍将增长。面对同样强大的英伟达,无论是半导体还是互联网巨头,都不容易在短时间内超越英伟达。以英伟达与AMD的竞争为例,拓龙产业研究报告指出,在2022年第四季之前,英伟达AMD Data Center的收入趋势相当一致,收入规模基本保持相同差距。然而,2023年,英伟达明显受益于AI热潮,2023年第一季和第二季Data。 Center的收入分别增加了14%、171%,与AMD大幅拉开差距。AMD在2023年第二季度衰退(-11%),主要原因是AMD Data Center的收入主要来自一般服务器(以CPU为主),但受A1服务器排挤效应的影响。如果MI300系列产品能在2023年第四季度如期量产,预计会有所改善。2022年,英伟达的收入来源是Data Center(数据中心)为主,2023年比例进一步上升至76%,2023年下半年人工智能芯片出货量持续增加,比例将进一步上升。(作者:倪雨晴 编辑:张伟贤) 关键词 : 英伟达英特尔AIai芯片芯片新浪科技微信官方账号
官方微信
产品电子画册
沪ICP备18037593号-1 沪公网安备 64030202000157号
Copyright ©AG体育·(中国)官方网站版权所有