9,278
0

黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达CEO黄仁勋谈战略投资与行业定位:万亿美元企业的未来展望

大规模战略投资行动引发市场关注

近期英伟达(NVDA.US)的战略投资动作频频,引发资本市场广泛讨论。该公司先后宣布两项重大投资决策:先是对英特尔注资50亿美元,随后又以高达1000亿美元的资金投向人工智能领域的OpenAI。值得注意的是,此前OpenAI与甲骨文的合作已获得市场积极反馈,相关上市公司股价均出现明显上涨。
然而,部分市场分析师提出质疑,认为英伟达、OpenAI与甲骨文三家科技巨头之间存在“收入循环”关系,质疑其财务数字的”操作”成分可能大于实际营收表现。

高管对话揭示战略思考

2023年9月25日,在BG2播客最新一期节目中,《明亮公司》记录了Altimeter Capital创始人Brad Gerstner、合伙人Clark Tang与英伟达CEO黄仁勋的三方对话。此次对话中,黄仁勋就当前市场的热点关切作出了系统性回应。
黄仁勋明确表示,对OpenAI的投资代表着一个战略性机遇。他认为OpenAI具备成为下一家万亿美元规模超级企业(Hyperscaler)的潜力。这一判断建立在对人工智能行业发展前景的深刻洞察之上。

ASIC芯片竞争与英伟达的独特优势

对于业内关于ASIC芯片可能威胁英伟达GPU市场地位的讨论,黄仁勋给出了独到分析。他指出,英伟达已超越传统芯片制造商的定位,转型为全面的人工智能基础设施提供商。这种转型体现在三个关键维度:

  • 能力范围的扩展:不再局限于硬件和软件开发,而是构建完整的AI生态系统
  • 技术迭代速度:保持业界领先的技术更新节奏
  • 规模与效率优势:通过大规模应用实现的可靠性提升和能源效率优化

基于这些竞争优势,黄仁勋认为英伟达的商业护城河比三年前显著拓宽。Brad Gerstner更做出大胆预测:英伟达可能成为历史上首家市值达到10万亿美元的企业。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达CEO黄仁勋谈AI推理的工业化革命

近日,Altimeter Capital创始人兼CEO布拉德·格斯特纳(Brad Gerstner)在其播客中再次邀请英伟达CEO黄仁勋(Jensen Huang)进行深度对话。值得关注的是,这距离黄仁勋上一次做客该节目已时隔一年多,期间人工智能行业发生了翻天覆地的变化。

AI推理业务成为关键增长引擎

格斯特纳在开场中指出,目前英伟达超过40%的收入源自AI推理业务,这一比例反映了从最初的AI训练向实际应用落地的重大转变。更引人注目的是,随着“链式推理”(chain of reasoning)技术的突破性发展,这一领域正呈现爆发式增长态势。

黄仁勋:AI推理将引发工业化革命

针对这一发展趋势,黄仁勋强调了一个被业界普遍忽视的关键事实:“大多数人尚未真正意识到,我们正在经历的实际上是一场深刻的工业化革命。”
这一论断揭示了AI技术发展已经进入新阶段——从实验室研究、模型训练逐步转向规模化生产部署。推理能力的快速提升意味着AI开始在各个行业实现真正的价值创造,其影响将堪比历史上的工业革命。

  • 备注*:黄仁勋标志性的红色眼镜也在访谈中被特意提及,成为这位科技领袖独特个人风格的又一注脚。

投资OpenAI不是合作的前提,是因为有机会能投

AI时代的三重扩展法则:英伟达CEO黄仁勋深度解读行业变革

  • Brad Gerstner:坦白说,自从那次对谈后,我们发现每天都在验证您那期播客的观点。在AI技术的发展时间轴上,过去一年堪比传统计算时代的百年。我最近重温了那期内容,许多见解至今令人印象深刻。其中最引人深思的是您当时坚定有力的预测——在那个许多人质疑预训练(pre-training)进入低谷、认为硬件投入过度的时刻,您断言推理能力的提升不会是百倍或千倍,而将是惊人的十亿倍*。这一前瞻性论断正在当下的产业实践中得到验证。今天我们应该从您最新宣布的重大合作谈起。

黄仁勋提出AI发展的三重Scaling Law理论

  • 黄仁勋:我想系统性阐述一个重要观点:AI领域现已形成三条清晰的技术扩展法则*:
  • 预训练扩展法则——这是基础模型的训练阶段;
  • 后训练扩展法则(post-training)——本质上是AI通过反复练习掌握特定技能的过程,它需要尝试多种方法直至达到理想效果,这一过程必然涉及大量推理运算
  • 新型推理扩展法则(inference)——传统推理是”一次性输出”,而我们发现的新型推理模式是”先思考后输出”:系统会先进行知识检索、事实验证、持续学习等深度思考,思考时间越长,输出质量越高。

这三者如今已通过强化学习手段深度整合,形成了远比单一预训练更复杂的系统架构。这就是AI发展的三重扩展法则演进。

推理能力”十亿倍提升”的技术验证

  • Brad Gerstner*:您去年就已提出这些观点,但今年为何对”推理能力提升十亿倍”及由此带来的智能跃升更具信心?
  • 黄仁勋:这份信心源自现代AI代理系统的实际表现。当前AI已不再是单一语言模型,而是由多个并发运行的子系统构成的复杂体系*——有的负责工具调用,有的专精信息检索,且全面支持多模态处理。看看那些AI生成的视频作品,其质量突破令人叹为观止,这正是新型推理能力的实证。

OpenAI战略合作的产业意义

  • Brad Gerstner*:这自然引向我们关心的重磅消息——英伟达与OpenAI的”Stargate”超级合作项目。该项目确立英伟达为首选合作伙伴,涉及1000亿美元级投资建设10吉瓦(Gigawatt)算力基础设施。若全采用英伟达方案,预计带来约4000亿美元收入。如何解读此次合作的战略价值?
  • 黄仁勋*:
  • 投资逻辑:OpenAI极可能成长为下一代万亿美元级超大规模企业,类比今日的Meta和Google。在其扩张早期进行战略投资,是我们能做出的最明智决策之一
  • 项目建设:合作包括三大平行工程:
  • 持续扩建Microsoft Azure基础设施
  • 推进Oracle Cloud Infrastructure(OCI)的5-7GW建设
  • 支持CoreWeave等合作伙伴发展
  • 合作创新Stargate标志着OpenAI首次自建AI基础设施,我们将在芯片、软件、系统全栈层面提供支持,助其转型为自主运营的超大规模企业

双重指数增长驱动产业变革

当前AI行业面临两大指数级增长曲线

  • 应用规模指数:随着AI能力提升,几乎所有应用都开始集成OpenAI技术
  • 算力需求指数:从”一键式推理”到”深度思考式推理”的转变,使单次任务算力需求激增

这两大曲线的叠加效应创造了前所未有的计算需求,我们的全栈合作正是为支撑这一革命性变革

全栈自建的战略转折

  • Brad Gerstner*:这种自建数据中心的转变颇具深意——正如Elon Musk构建X的全栈能力,OpenAI也在打造自主掌控的AI基础设施,即使有剩余产能也可对外服务,这与AWS、Azure的云服务模式异曲同工?
  • 黄仁勋:虽然OpenAI可能像X一样主要自用产能,但其核心诉求是建立与我们直接的工程技术协作关系*——正如同我们与Meta、Google、Azure保持的战略伙伴关系。当企业发展到足够规模时,这种深度协同就成为必然选择。微软CEO Satya Nadella等业界领袖都理解并支持这种产业演进逻辑。

华尔街与英伟达之间预期背离:如何理解AI的需求规模

英伟达CEO回应增长预期争议:公司业绩持续超越外界预测

知名科技投资人Brad Gerstner在近期对话中提出一个核心矛盾:尽管全球AI基础设施建设如火如荼——包括Oracle投入3000亿美元、Colossus项目推进,以及主权国家和超大规模科技公司的基础设施投资——但华尔街卖方分析师对英伟达的增长预测却相对保守。数据显示,25位专注英伟达股票的分析师达成共识:该公司2027年后年增长率将放缓至8%

市场增长预期与产业现实存在显著差异

据观察:

  • 全球AI基础设施投资呈现指数级增长态势
  • OpenAI首席执行官Sam Altman等行业领袖已在讨论万亿美元规模的AI投资计划
  • 分析师预测与产业实际发展势头出现明显背离

黄仁勋:业绩持续超预期已成常态

英伟达创始人兼CEO黄仁勋对此回应称:”我们对此态势保持坦然态度。历史证明,我们超越市场预期已经成为常态。”这一表态暗示公司管理层对维持高增长充满信心,并且过去业绩记录支持这一乐观立场。

关键启示

当前AI产业爆发式增长与资本市场保守预测之间的矛盾,反映了传统分析框架可能难以准确评估技术革命带来的结构性变革。英伟达作为AI计算基础设施的核心供应商,其实际业绩表现将继续受到业界高度关注。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达CEO黄仁勋解读数据中心业务增长前景:从通用计算到AI计算的范式革命

计算范式转型驱动长期增长

英伟达创始人兼CEO黄仁勋在最新对话中指出,通用计算的时代已经终结,未来的计算基础设施将由加速计算与AI计算主导。这一判断基于两个核心事实:

  • 摩尔定律失效:传统CPU性能提升遭遇物理极限
  • 产业实践验证:全球科技巨头正加速向GPU进行基础设施迁移
  • 与传统CPU相比,GPU在AI计算任务中能提供10-100倍的性能优势*,这一差距仍在持续扩大。英特尔近期与英伟达的合作也从侧面验证了这一趋势的不可逆转性。

AI技术普及创造万亿美元市场

AI技术的渗透已呈现出两个明显的市场分层

  • 存量替代市场
  • 全球逾万亿规模的hyperscale计算基础设施正经历CPU向GPU的迁移
  • 包括搜索引擎、推荐系统等核心应用的技术栈重构
  • 增量创新市场
  • 大模型推理、AI原生应用等新型工作负载涌现
  • 预计2030年全球AI增强经济规模可达10万亿美元

阿里云最新规划显示,其计划在2032年前将数据中心电力消耗提升10倍,这一目标与英伟达收入增长曲线高度相关,进一步印证市场潜力。

供给短缺风险的系统性分析

针对市场普遍关注的“供给过剩”忧虑,黄仁勋从三个维度做出回应:

  • 需求侧特征
  • AI推理需求呈现双指数增长:应用渗透率提升与单次计算复杂度提升同时发生
  • 传统数据处理市场(如SQL、NoSQL系统)正开始向GPU迁移
  • 供给侧准备
  • 英伟达已建立弹性供应链体系,可根据实际订单动态调整产能
  • 行业实际需求持续超出厂商预期,供给短缺局面或长期存在
  • 经济效益验证
  • 企业部署AI的ROI明确:1万美元AI投入可提升10万美元年薪员工2-3倍产出
  • OpenAI等AI企业创造史上最快的商用技术采纳曲线

宏观经济维度的影响扩展

这一技术革命预计将产生显著的宏观经济溢出效应

  • GDP增长引擎:AI有望推动全球GDP增速跃升至4%以上
  • 产业联动效应:带动能源、建筑等基础设施行业同步增长
  • 生产率革命:类比工业革命时期机械对体力劳动的增强

值得注意的是,单位能耗性能(perf per watt)将成为决定企业竞争力的关键指标,这也是英伟达持续加大研发投入的核心方向。

「循环营收」质疑:投资机会不绑定任何条件

黄仁勋回应”循环营收”质疑:AI投资背后的经济实质解析

在一次深入的对话中,NVIDIA首席执行官黄仁勋就当前媒体对AI行业”循环交易”与”循环营收”的质疑发表了专业回应,揭示了AI产业链投资的核心经济逻辑

核心质疑与关键回应

  • 重要市场关注点*:
  • 近期财经媒体频频质疑AI行业存在”循环交易”,即企业间通过相互投资和服务采购人为抬高营收数字
  • 核心症结在于:AI龙头对初创企业的投资是否扭曲了真实市场需求
  • 黄仁勋的技术经济分析*:
  • 建设10GW规模数据中心需要约4000亿美元投资
  • 这一投资规模必须由三方面支撑:
  • 企业自有资本
  • 股权融资能力
  • 可获得的债务融资
  • 投融资规模的确定取决于企业对未来收入能力的合理预期

产业投资的本质特征

黄仁勋强调,NVIDIA的投资决策基于两点根本认识

  • 商业独立性:客户没有义务必须使用NVIDIA芯片,市场竞争始终存在
  • 战略前瞻性:对xAI、CoreWeave等企业的投资是单纯的股权机会,看好其成为”多万亿美元级”的超大规模企业

“这完全是独立的商业决策,”黄仁勋表示,”我唯一的遗憾是早期资金不足,未能进行更大规模投资。”

AI经济的实质基础

关于”循环营收”的真正误解在于:

  • ChatGPT等产品已拥有15亿月活跃用户的实质性市场
  • 企业级AI应用已成为不可逆转的转型趋势
  • 主权国家将AI技术视为国防与经济安全的核心基石

“关键在于智能的自动化,”黄仁勋指出,”现在有哪个人、企业或国家会将智能视为可选?没有。这就是根本。”
这一分析揭示了AI投资背后的底层经济逻辑:不是人为创造的交易循环,而是全球数字化转型浪潮带来的真实需求崛起。

摩尔定律已死,现在需要极致的软硬件协同设计

英伟达加速技术迭代:解读年度产品发布战略转型

战略调整背景

Brad Gerstner在最近的对谈中指出:”关于市场需求我们已经讨论得足够充分,现在让我们聚焦系统设计层面的战略思考。”随后他将话题转向英伟达的产品路线图。据悉,该公司已于2024年正式转型为年度产品发布节奏,这一重大战略调整引发了业界广泛关注。

产品路线图详解

英伟达的新一代产品矩阵呈现出清晰的迭代路径:

  • 2024年:Hopper架构产品
  • 2025年:Grace Blackwell架构,据悉这将是一次重大技术跃迁,需要数据中心基础设施进行相应升级改造
  • 2026年下半年:Vera Rubin架构面世
  • 2027年:推出Rubin Ultra
  • 2028年:Feynman架构投入市场

战略转型动因分析

年度发布频率的采用背后蕴含着多重战略考量:

  • 技术迭代加速:人工智能领域的发展速度要求更快的硬件更新周期
  • 市场竞争力维持:在激烈的AI芯片竞争中保持技术领先优势
  • 内部研发效能提升:英伟达自身AI技术的运用使其能够支撑更快的产品开发节奏

值得注意的是,这一转型表明英伟达已经建立起更为高效的研发体系,能够支持每年带来显著技术进步的新产品发布。这种快速的迭代能力在当前AI爆炸式发展的时代具有关键战略价值。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达芯片架构的演进:技术创新推动AI算力革命

指数级需求催生芯片架构革命

英伟达CEO黄仁勋在公开对话中揭示了公司未来芯片架构发展的核心逻辑。AI应用的爆发式增长正驱动算力需求呈指数级上升。数据显示,OpenAI推出ChatGPT仅两年,周活跃用户已达到8亿规模,而用户每次交互产生的token数量还在持续增加。
双重指数增长(用户量与单次使用token量)带来了严峻的成本挑战:在摩尔定律失效(晶体管单位成本趋于稳定)和电力效率增长放缓的背景下,传统改进路径已无法满足需求。黄仁勋指出:”除非我们以不可思议的速度提升性能,否则token生成成本将持续攀升。”

十年十万倍的系统级突破

英伟达通过架构级创新实现了惊人的性能跃迁:

  • 2012-2022年:Kepler到Hopper架构实现100,000倍提升
  • 2022-2023年:Hopper到Blackwell系统级性能提升30倍
  • 未来规划:Rubin与Feynman架构将持续递进式升级

突破关键在于系统层面的协同设计(co-design):随着晶体管性能提升放缓,英伟达通过重构CPU、GPU、网络芯片(NVLink纵向扩展、Spectrum-X横向扩展)的整体架构,配合软件栈的同步优化,实现了传统单一芯片升级无法企及的效能突破。

极致协同设计的范式革命

黄仁勋阐释了英伟达创新方法论的本质转型

  • 全栈优化:覆盖芯片、软件、数据中心网络的全链条协同
  • 跨域互联:构建AI工厂间的跨域通信能力
  • 年度迭代:维持技术升级的指数级节奏

这种创新模式突破了传统”盒子里”的局限。在摩尔定律有效时期,性能提升只需聚焦单芯片改进;如今需要同时优化模型、算法、系统与芯片的全局关系。Blackwell相较Hopper的30倍系统提升,正是这种理念的实践成果。

产业影响与技术前瞻

英伟达的架构演进直接服务于AI成本效率的持续优化

  • 降低单token生成成本
  • 提升预训练/后训练效能
  • 增强推理时的”思考”能力

随着AI模型日趋复杂,用户交互深度持续增强,英伟达通过”指数叠指数”的技术演进节奏,为行业提供了应对算力挑战的系统级解决方案。这不仅重新定义了芯片设计范式,更将为AI产业的下一阶段发展构建基础性的算力支撑体系。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达技术生态系统构建与供应链优势深度解析

Nvidia协同设计与技术栈布局

英伟达首席执行官黄仁勋在与Altimeter Capital首席执行官Brad Gerstner的对话中,阐述了公司技术战略的核心逻辑。英伟达构建的全栈式技术解决方案源于极致协同设计理念,这一理念驱动公司在多个技术领域进行深度布局:

  • 网络与交换技术开发
  • 纵向与横向扩展解决方案
  • CPU与GPU协同设计
  • 智能网卡(NIC)技术创新

英伟达软件生态的竞争优势

英伟达在软件层面的投入同样令人瞩目。公司在开源软件贡献量方面位居全球前列,且这一数据仅针对AI领域。更为重要的是,英伟达的技术能力横跨多个关键领域:

  • 计算机图形学
  • 数字生物学
  • 自动驾驶技术

这种全栈技术能力使英伟达能够实现深度优化的协同设计,极大提升了系统整体效率。

供应链战略与市场领导地位

Brad Gerstner指出,英伟达的技术战略带来了显著的成本优势竞争优势

  • Token生成成本降低:通过全栈优化实现效率提升
  • 年度发布节奏优势:竞争者难以跟随的技术迭代速度
  • 供应链稳定性:提供三年可见性的产能规划

黄仁勋进一步阐释了英伟达的供应链战略优势:公司在AI基础设施建设领域的规模需求已达到千亿美元级别,涉及:

  • 大规模晶圆启动
  • DRAM批量采购
  • 产能前置规划能力

这种级别的供应链管理能力,在全球范围内仅有极少数企业能够匹配,构成了英伟达市场领导地位的重要支撑。

英伟达的护城河为什么更宽了:如何看ASIC的竞争力

NVIDIA黄仁勋深度解析AI芯片竞争格局与护城河战略

技术优势与行业壁垒进一步巩固

NVIDIA创始人兼CEO黄仁勋在近期访谈中指出,公司的技术护城河较三年前显著拓宽。尽管竞争者数量增加,但行业准入门槛也随之提升:

  • 协同设计与规模效应: 当前的AI工厂系统需要6-8颗芯片协同设计,才能实现”10倍级”的性能突破,这对技术要求极为严苛
  • 客户风险承担能力: 仅有NVIDIA具备客户一次性下单50万颗GPU、价值达500亿美元的超级订单资质
  • 供应链规模优势: NVIDIA是全球少数能调动数千亿美元供应链资源的半导体企业

GPU与ASIC的市场博弈

关于GPU与ASIC(如Google TPU、Amazon Trainium等专用芯片)的市场之争,黄仁勋提出了多维分析:

行业演进趋势

  • AI工厂理念: 市场已从单一GPU芯片发展为复杂的AI工厂系统
  • 工作负载分化: NVIDIA最新发布的CPX GPU专注于长语境推理和视频生成领域
  • 运算需求演化: 未来可能出现专用的”AI数据处理”处理器来处理KVCache等新型计算需求

ASIC的市场局限性

  • 规模阈值: ASIC在经济规模较小时可能具有优势,但随市场扩大,COT模式(如Apple方案)将取代传统ASIC商业模式
  • 应用领域受限: 视频转码器、智能网卡等特定的、有限规模市场适合ASIC方案
  • 灵活性不足: AI工作负载种类快速演变,使得单一用途ASIC难以应对多样化需求

生态系统开放战略

NVIDIA正在实施开放式生态系统战略,这一布局包含三个关键维度:

  • 技术开源: 发布”Dynamo”解耦AI负载编排系统并开源
  • 标准开放: NVLink Fusion技术向包括Intel在内的合作伙伴开放
  • 生态融合: 计划将Intel生态、Arm生态与NVIDIA的AI加速计算能力进行深度融合

商业模式的不可替代性

黄仁勋提出了一个颠覆性的价值主张: 即便是免费的ASIC解决方案,也难以与NVIDIA的系统级方案竞争。原因在于:

  • 总体运营成本优势: NVIDIA方案在电力消耗、数据中心效率、智能产出等综合指标上保持领先
  • 系统级优化: 从芯片设计到数据中心部署的全栈优化带来不可复制的性能优势
  • 快速迭代能力: CUDA架构的可编程性为客户提供了应对AI负载快速演变的灵活性

这一系列战略部署使NVIDIA在AI计算领域构筑了多维度、深层次的竞争壁垒,确保其在未来行业格局中的核心地位。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

Blackwell与ASIC成本效益的深度解析

基础设施投入的巨额成本

英伟达首席执行官黄仁勋明确指出,仅土地、电力、厂房等基础建设投入就高达150亿美元。这一数字揭示了高端芯片制造领域的准入门槛之高。

经济效益的两种分析视角

投资分析师Brad Gerstner提出的质疑具有代表性:为何在将竞品芯片价格设为零的前提下,英伟达的高价芯片反而更具经济优势?
对此,黄仁勋从两个维度进行了专业阐释:

1. 从电力约束的角度

  • 关键概念:token单位能耗(token per watt)
  • 现代数据中心普遍面临电力资源瓶颈
  • 相同电力配给(如2GW)下,由于Blackwell芯片的深度协同设计
  • 单位能耗性能达到Hopper的30倍
  • 理论上可为客户创造双倍的营收产出

2. 从利润结构的比较

  • 英伟达保持着75%的高毛利率
  • 竞品毛利率约为50%-65%
  • 即便考虑15%的价格折扣
  • 性能差距仍远超成本差异

市场竞争的本质

黄仁勋强调,单纯的价格竞争无法抵消30倍的性能代差。这不仅反映了英伟达在芯片架构设计上的领先优势,更凸显了

数据中心运营商最核心的需求:在电力约束下实现最大化的计算产出。
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提

英伟达CEO黄仁勋深度解读AI基础设施产业的战略格局与未来机遇

算力效能的跨越式发展

过去十年间,大型AI模型的单位能效比实现了惊人的10万倍提升。即便将Hopper架构处理器与业内同级ASIC产品进行对标,Blackwell架构仍具备30倍的性能优势。这一跨越导致在固定电力预算(例如2GW)条件下,选择次优方案将面临30倍的营收机会成本。这种巨大的效益差距使得市场必然向单位能耗最优的计算系统集中。
行业权威Brad Gerstner透露,某超大规模云计算企业的CFO已确认:在”token/gigawatt”能效指标与电力供给的双重约束下,企业必须跟随英伟达的芯片迭代周期进行基础设施升级。

系统级创新的竞争壁垒

黄仁勋阐述了英伟达年度芯片发布策略背后的技术逻辑:”我们每年研发6-7颗相互协同的芯片,每颗都是系统架构的有机组成部分。实现Blackwell宣称的30倍提升,需要跨全芯片栈的系统级优化。”这种全栈协作模式构建了竞争对手难以复制的技术壁垒——孤立的ASIC设计无法匹敌全域优化的系统效能
Gerstner从投资视角补充道:”英伟达通过年度迭代节奏供应链深度协作以及超预期的研发规模,持续拓宽其在AI基础设施领域的护城河。通过NVFusion、CPX等技术创新,其系统构建能力已形成显著优势。”

市场认知与成长潜力错配

值得注意的是,尽管具备技术领先优势,英伟达的估值倍数仍低于部分同业。Gerstner认为这反映了”大数定律”的市场心理,但他同时指出:”十年前无人相信万亿市值企业的可能性,如今已有10家。若AI工作负载如预期增长5-10倍,配合既定的资本支出趋势,英伟达很可能会成为首家10万亿美元市值的公司。”
黄仁勋回应称市场严重低估了公司潜力:”我们的实际机遇远超当前共识。”他强调英伟达的本质已超越传统芯片公司:”我们是全球领先的AI基础设施合作伙伴,为客户提供从单芯片到完整系统的灵活解决方案。”

超级AI集群的构建艺术

对话特别探讨了Elon Musk在构建超大规模AI集群(如Colossus项目)的独特优势。黄仁勋指出:”建造百万级GPU的相干集群涉及技术复杂度、资金筹措、场地获取、电力配套等多维挑战,是人类史上最复杂的系统工程之一。”
Gerstner将Musk比作”人类GPT”,黄仁勋则补充:”当系统思维执行能力迫切愿景三者结合,便能创造奇迹。Musk可能率先建成1GW级别的AI超级计算机,这完全在意料之中。”

主权AI:AI正在成为每个国家的基础设施

黄仁勋谈主权AI:现代国家的”基础设施”必修课

主权AI已成国家战略核心

英伟达CEO黄仁勋在与Altimeter Capital创始人Brad Gerstner的对话中,揭示了全球对于主权AI的战略重视程度正日益提升。Gerster指出,当今各国对AI技术的重视程度堪比1940年代各国对核技术的追求,这种战略高度的认知直接推动科技领袖频繁参与国家层面的政策讨论。美国总统甚至公开表示,黄仁勋及英伟达对美国国家安全具有关键意义。

AI技术发展的本质差异

与核武器不同,AI已成为现代社会的通用基础设施。黄仁勋强调:”没有人需要原子弹,但人人都需要AI。”这一根本差异决定了AI技术的普及化趋势。从通用计算到加速计算,从人工编码到AI生成代码,计算范式已经发生根本性变革。”现代社会不可能倒退到前数字时代”黄仁勋表示,”关键在于如何实现计算的现代化升级”。

主权AI建设的双重必要性

黄仁勋阐述了各国发展主权AI的两大核心动机:

  • 文化价值的数字传承:AI系统需要内化各国的历史、文化和价值观。随着AI能力提升,这种学习过程会变得更加高效。
  • 多维度的实用需求:不仅需要基础语言模型,更需要工业制造、国家安全等领域的专用AI能力

他建议各国采用OpenAI、Google Gemini等公开模型的同时,必须投资建设本土AI基础设施,培养完整的智能技术生态。

AI基础设施的全球布局

黄仁勋指出,英伟达的战略定位正是为各国提供AI基础设施建设支持。”如同能源网络和通信系统,AI基础设施正成为现代国家的标配。”这解释了为何各国在积极采用主流AI服务的同时,仍在大力推进本土AI研发能力的建设。在全球AI生态中,主权能力与国际合作正在形成互补关系,共同推动技术发展。

© 版权声明

相关文章