智通财经APP获悉,英伟达与Xai联合表示,在沙特阿拉伯建设的大型AI中心数据设施很快将配备数十万颗英伟达高性能AI芯片,而特斯拉CEO埃隆·马斯克旗下的AI超级独角兽Xai将是第一个大客户。此外,除了购买NVIDIA AI GPU计算集群外,沙特“主权AI系统”还将斥巨资购买AMD和高通开发的AI芯片和AI软硬件协作系统。 Xai 创始人马斯克和 NVIDIA 首席执行官黄仁勋周三出席了在华盛顿特区举行的美国-沙特投资论坛。双方的最新公告是在此前深度合作的基础上进一步加速。今年5月,英伟达表示,Mait将在沙特阿拉伯Humain数据中心提供功耗为500兆瓦的AI芯片算力集群。 Humain,沙特巴sed 财富基金支持的人工智能初创公司表示,这一声明是 5 月份达成的合作伙伴关系的延伸。美国东部时间周三,Humain 表示,该项目将包括至少约 60 万个 NVIDIA AI 芯片,主要基于 Blackwell/Blackwell Ultra 架构 AI GPU 计算集群。最近备受关注的人工智能初创公司Humain成立于今年早些时候,隶属于沙特阿拉伯主权基金沙特公共投资基金。堪称世界上“主权人工智能系统”的最佳范例。当黄仁勋随美国总统唐纳德·特朗普访问沙特阿拉伯时,Sa在沙特阿拉伯建立这个大型数据中心的AI野心的原型在5月份首次公布。未来还将采购AMD、高通的AI芯片。 “你能想象一家新成立的营收近0亿美元的AI初创公司现在将为马斯克构建海量的AI数据吗?”黄仁勋接受媒体采访时表示在华盛顿。即将推出的主权人工智能设施是 NVIDIA 所谓的“主权人工智能”最引人注目的例子之一。 “AI芯片霸主”NVIDIA高管曾多次公开表示,各国政府越来越需要建设主权级超大规模AI数据中心,用于AI训练/识别,以保护国家安全和文化。这也意味着,除了一些超大规模的云计算厂商之外,英伟达昂贵的AI芯片的潜在市场巨大。 NVIDIA CEO黄仁勋今年多次提及“主权AI”,表明国家级人工智能硬件需求激增。因此,除了向微软、亚马逊、谷歌等超大规模云计算服务商提供AI GPU之外,NVIDIA也在努力实现业务多元化。 “主权AI”无疑是黄仁勋最重要的领域之一。黄仁勋曾在接受采访时表示印度、日本、法国和加拿大等国家正在讨论投资“主权级人工智能系统”的重要性。 “从他们的自然资源到独家机密数据库,他们被认为是为他们的国家精炼和制造的。认识到主权人工智能能力是一个全球概念。”凭借“NVIDIA CUDA软硬件协同形成的极其强大的护城河和AI开发者生态系统,目前最流行的Blackwell/Blackwell Ultra Architecture AI GPU无疑成为了世界各国政府首选的AI底层硬件。NVIDIA周三发布的最新财报显示,下季度营收前景超出华尔街预期,NVIDIA Q3总营收同比攀升62%,达到创纪录的570亿美元营收规模;而AI在全球的扩张正在如火如荼地展开。全面展开,NVIDIA数据业务部门第三财季营收5美元12亿,同比增长66%,环比增长25%。可以说彻底击溃了近期席卷市场的“人工智能泡沫论”,并极大缓解了股市投资者对全球人工智能支出即将出现前所未有的衰退的担忧。 NVIDIA强劲的业绩报告凸显了OpenAI、Xai、Anthropic和Palantir等AI应用领导者,或者致力于“主权AI系统”的主要政府部门,继续花费大量资金建设AI数据中心。人工智能全球扩张的热潮丝毫没有减弱的迹象。 “关于人工智能泡沫的说法有很多,但从我们的角度来看,我没有看到泡沫。人工智能算力的需求的实际情况完全不同。”黄仁勋在财报电话会议上表示。 “最新一代Blackwell AI GPU架构销量超出预期。云 GPU 已售罄。训练和理解人工智能的计算需求将继续以指数速度增长。黄仁勋出现在美国总统特朗普支持的重大投资活动上,也显示出本届政府对人工智能的重视。随着英伟达积极游说,希望获得白宫许可,未来向中国出口人工智能芯片,黄仁勋在白宫与美国总统熟络起来。在宣布这笔交易时,曾是特朗普第二届政府初期关键人物的马斯克在谈到芯片规模时,短暂地溜了一步。 AI的数据中心,错误地以兆瓦为单位,而不是将兆瓦表示为千兆瓦。他稍后开玩笑说,扩大数据中心的计划“只能稍后讨论。”马斯克当时开玩笑说,“这价值约8万亿美元”,Humain不仅会与NVIDIA合作,还会与其他芯片巨头合作!吃了一个AI的繁荣时代。据了解,Humain不仅配备了NVIDIA的高性能AI GPU。英伟达长期最强劲的竞争对手AMD和高通也将在HumanAI芯片和AI软硬件协作系统上大肆销售。 AMD首席执行官和高通首席执行官克里斯蒂亚诺·阿蒙本周均出席了特朗普政府为沙特王储穆罕默德·本·萨勒曼举办的国宴。宴会结束后,王储表示,沙特对美国的投资将从6000亿美元增加到1万亿美元。 Hum表示,预计到2030年,AMD将提供电力高达1吉瓦的AI芯片算力集群。该公司表示,将为该设备提供用于AI训练/识别的下一代AI算力集群——原生MI450 AI GPU集群。 AMD补充说,思科将为大型数据中心提供额外的核心基础设施。据悉,相比与上一代AMD的MI300X/MI350X相比,MI450的性能堪称“内存怪物”级别的AI性能。工艺方面,采用台积电最先进的2NM(N2)工艺,基于CDNA 5先进架构。与MI300X相比,内存带宽从5.3TB/s大幅跃升至19.6TB/s,内存容量从192GB跃升至432GB。对于超大规模多模态+超长LLM背景下崛起的最大玩家OpenAI来说,超大显存+超大带宽的价值往往比单卡多几个峰值的算力更有效。对于OpenAI这样的AI应用开发商来说,也是除了NVIDIA Blackwell AI GPU系统之外,基于“超大显存/带宽+更先进工艺”的第二个AI GPU算力前沿。高通计划销售新的数据中心高性能人工智能芯片,名为AI200和AI250,这两款芯片于10月份首次发布,人类。高通表示,Humain 将搭载高通芯片,功率容量约为 200 兆瓦。高通于2019-2020年初推出了用于数据中心/边缘推理的Cloud AI 100系列(继Cloud AI 100 Ultra之后)。新推出的AI200/AI250——产品首次采用机架级解决方案,单卡最高768GB LPDDR,致力于大型模型的高能效推理,并号称能够为AI数据中心运营商降低“总拥有权”(TCO)集群的成本。高通近期发布了两款全新AI推理加速器AI200/AI250,以及相应的AI计算集群解决方案。从2026年开始,预计将带动数据中心芯片业务成为高通业绩增长的新“超级引擎”。 AI200/AI250针对AI数据中心机房级别的AI推理算力集群,属于AI专用加速器(AI ASIC)技术路线思路,旨在chmark 谷歌 TPU; AI200/AI250和谷歌TPU都属于“ASIC专用推理/训练加速器”技术家族(高通强调TCO/能效和理解)。
特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易HAO用户上传发布,网易HAO为社交媒体平台,仅提供信息存储服务。