黄仁勋最新播客:英伟达会达到10万亿美元?程序员数量不降反增?如何应对AI焦虑?
原文标题:Jensen Huang: NVIDIA - The $4 Trillion Company & the AI Revolution | Lex Fridman Podcast
原文作者:Lex Fridman
编译:Peggy,BlockBeats
编者按:
在生成式 AI 持续演进、Agent 开始进入实际生产流程的背景下,行业讨论的重心,正在从「模型能力有多强」,转向「系统如何承载智能」。当大模型训练逐渐标准化,一个更底层的问题开始浮现:支撑 AI 持续扩张的,不再只是算法突破,而是整个计算系统本身。

本文编译自 Jensen Huang(黄仁勋)与 Lex Fridman 的对谈,Lex Fridman 为知名 AI 研究者与科技播客主持人,其节目长期聚焦技术、产业与未来趋势的深度讨论。在这次对谈中,黄仁勋并未聚焦模型能力本身,而是从计算架构与产业演进出发,提出一个更具结构性的判断:AI 正在从「芯片问题」,演变为「系统工程问题」。
这场对谈大致可以从五个方面来理解。
计算从「芯片」走向「工厂」
对谈的第一个核心判断是,AI 的竞争不再围绕单点性能展开,而是演变为系统能力的竞争。从 GPU,到整机,再到数据中心级别的「AI 工厂」,计算单元的边界不断外扩。与此同时,计算机的角色也发生转变——从存储与检索信息的「仓库」,转向持续生成 token 的「生产系统」。这意味着,AI 不再只是工具,而是直接参与经济生产的基础设施。
四种 scaling 叠加:AI 为什么越来越「重」
在这一范式之上,AI 的扩展路径也发生了结构性变化。增长不再依赖单一的预训练 scaling,而是预训练、后训练、推理与 Agent 四种 scaling 的叠加,并形成一个循环系统:Agent 产生数据,数据进入训练,训练反哺推理,再由推理支撑更复杂的 Agent。所有路径最终收敛到一个变量——算力。其中最关键的变化在于,推理正在成为计算消耗的核心,「思考」本身成为最昂贵的环节。
AI 的瓶颈从算法转向能源
随着 scaling 的叠加,问题也从模型层面下沉到基础设施层面。对谈给出的一个直接判断是,AI 的长期瓶颈不再是数据或算法,而是电力与能源体系。但真正的约束并不只是供给不足,而是电网调度、数据中心架构以及企业对「高可用性」的路径依赖。这使得 AI 的问题,从技术问题,转变为工程、能源与制度安排的综合问题。
CUDA 的本质:装机量而非技术优势
在竞争层面,对谈也提供了一个关键视角:NVIDIA 的护城河并不只是技术领先,而是通过 CUDA 所建立的装机量与开发者生态。通过将 CUDA 嵌入 GeForce 并牺牲短期利润换取规模,NVIDIA 实际上构建的是一个「计算平台」。当规模、生态与执行速度叠加后,技术本身反而成为次要变量。这意味着,AI 竞争正在从模型能力,转向平台与系统能力。
注:CUDA(Compute Unified Device Architecture)是 NVIDIA 推出的并行计算平台,使 GPU 可以被开发者用于通用计算而不仅是图形渲染。
AI 会抢工作吗?不会,但会改变工作的定义
在应用层面,对谈也给出一个重要判断:AI 并不会简单替代职业,而是改变工作的结构。任务层面的自动化会提升整体效率,反而扩大对专业能力的需求。工作的核心不再是「执行任务」,而是「定义问题、调用工具与协同解决问题」,智能逐渐成为可获取的能力,而人类差异更多体现在判断力与组织能力上。
如果说这场对谈提供了一个清晰的切入点,那在于它将 AI 从「模型能力的竞争」,转化为一个系统性问题:当计算成为生产系统,约束它的将不再只是技术本身,而是能源、供应链与组织方式。在这样的视角下,问题已不再是某一技术路径的领先与否,而是整个世界,正在被一套以计算为核心的基础设施重新组织。
以下为原文内容(为便于阅读理解,原内容有所整编):
TL;DR
·AI 已从「更快的芯片」演变为「计算工厂」,竞争不再是单点性能,而是整套系统能力(算力、网络、电力、软件)的协同效率
·CUDA 的成功不在技术,而在装机量:NVIDIA 通过牺牲利润换取规模,建立了几乎不可撼动的计算平台生态
·AI 的增长不再只依赖模型变大,而是预训练、推理、Agent 等多重 scaling 同时发生,最终都收敛到一个变量:算力
·推理正在成为算力消耗的核心环节,「思考」比「训练」更昂贵,AI 正从离线模型转向持续运行的系统
·AI 的真正瓶颈不是算法,而是能源与基础设施,电力调度能力将成为下一阶段关键约束
·计算机正在从「信息仓库」变为「生产工厂」,token 成为可定价商品,AI 基础设施将直接参与经济生产
·AI 不会简单替代工作,而是抬高所有职业的能力上限;未来的核心能力从「执行任务」转向「定义问题与协同解决问题」
访谈内容
Lex Fridman:接下来是一段与 Jensen Huang 的对话,他是 NVIDIA 的首席执行官,这家公司可以说是人类历史上最重要、最具影响力的公司之一。NVIDIA 是推动 AI 革命的核心引擎,而它的成功,很大程度上源于 Jensen 作为领导者、工程师和创新者所做出的一系列关键判断与大胆决策。这是 Lex Fridman Podcast。各位朋友,接下来欢迎 Jensen Huang。
从「更快的芯片」到「AI 工厂」
Lex Fridman:你带领 NVIDIA 进入了 AI 的一个新阶段,从过去专注于芯片级设计,走向了现在的机架级设计。我觉得可以这么说,过去 NVIDIA 的胜利,很大程度上在于打造最强的 GPU,而你们现在仍然在做这件事,但已经扩展到了极致协同设计:GPU、CPU、内存、网络、存储、电源、散热、软件、机架本身、你们发布的 pod,甚至整个数据中心。那我们就从「极致协同设计」聊起。面对这么多复杂组件和变量,系统协同设计中最难的部分是什么?
Jensen Huang:这是个很好的问题。首先,之所以必须做极致协同设计,是因为我们现在要解决的问题,已经无法被一台计算机、或者一颗 GPU 单独加速完成了。你真正想要的是——计算速度的提升,要超过你增加计算机数量的速度。你增加了 1 万台计算机,但你希望性能提升是 100 万倍。那这个时候,你就必须重新处理算法,把算法拆分、重构,把 pipeline 拆分,把数据拆分,把模型拆分。当你以这种方式把问题分布出去之后,就不只是「扩展规模」了,而是「分布问题」,这时一切都会成为瓶颈。
这其实就是 Amdahl's Law 的问题:系统整体加速取决于可加速部分在总工作中的占比。如果计算只占问题的 50%,哪怕你把计算速度提升一百万倍,整体也只提升两倍。于是你不仅要分布计算,还要解决 pipeline 拆分、网络连接问题,因为所有这些计算机都要互联。在我们这种规模的分布式计算下,CPU 是问题,GPU 是问题,网络是问题,交换也是问题,负载分配本身也是问题。这是一个极其复杂的计算机科学问题。所以我们必须把所有技术一起用上,否则你只能线性扩展,或者依赖摩尔定律,而摩尔定律本身也在放缓。
注:Amdahl‘s Law(阿姆达尔定律)可以理解为木桶效应在计算系统中的数学表达。在本文中,它用来说明 AI 计算不只是提升 GPU 性能的问题,网络、存储、调度等环节都会成为瓶颈,必须进行系统级协同优化。
Lex Fridman:这里面肯定有很多取舍,而且涉及完全不同领域的专家,比如高带宽内存、网络、NVLink、网卡、光学、铜互连、电源、散热等等,每个领域都有世界级专家。你是怎么把这些人聚在一起协作的?
Jensen Huang:所以我的团队规模才会这么大。
Lex Fridman:你能讲讲这个过程吗?比如专家和通才是如何协作的?当你要把所有这些东西塞进一个机架里时,整个设计流程是怎样的?
Jensen Huang:
可以分三个问题来回答。第一个问题是:什么是「极致协同设计」?本质上就是在整个软件与硬件栈上做整体优化,从架构、芯片、系统,到系统软件、算法,再到应用,这是第一层。第二层是,我们刚才提到的,不只是 CPU、GPU 和网络芯片,还包括 scale-up 和 scale-out 的交换系统,以及电源和散热,因为这些计算机系统的功耗非常高。它们确实很高效,但在总量上依然消耗大量电力。
所以,第一个问题是「它是什么」,第二个问题是「为什么要这么做」,这一点我们刚才已经讲过,你需要把工作负载分布出去,从而实现超过单纯增加计算机数量所带来的收益。
第三个问题是「怎么做」。这其实就是这家公司最神奇的地方。当你在设计一台计算机时,你需要有操作系统;当你在设计一家公司时,你首先应该想清楚这家公司要产出什么。我看过很多公司的组织架构图,它们看起来都差不多——像汉堡一样的结构、像软件公司、像汽车公司,但在我看来这没有意义。公司的目标,是成为一个生产产品的机器,是一个机制、一个系统,用来持续产出我们想要的产品。
公司的组织结构,应该反映它所处的环境。某种程度上,这也决定了组织应该如何运作。我的直接汇报团队大概有 60 个人。我不会和他们一对一沟通,因为那是不可能的。如果你有 60 个直属下属,还要做事,是无法通过一对一来完成的。
Lex Fridman:但你还是有 60 个直接汇报?
Jensen Huang:不止,更多。而且这些人基本上都有工程背景,有内存专家、CPU 专家、光学专家、GPU 专家、架构、算法、设计专家。
Lex Fridman:这太惊人了。
Jensen Huang:是的。
Lex Fridman:所以你其实一直在盯整个技术栈,并且参与关于整体设计的深入讨论?
Jensen Huang:而且我们没有「一对一」的讨论。我们提出一个问题,然后所有人一起解决。因为我们是在做极致协同设计,公司每天都在做这件事。
Lex Fridman:也就是说,即便你在讨论某个具体组件,比如散热或网络,所有人都会参与?
Jensen Huang:对,完全是这样。
Lex Fridman:每个人都可以说,「这个方案不适用于电源」「这个不适用于内存」?
Jensen Huang:没错。谁想参与就参与,不想参与就退出。但团队里的每个人都知道什么时候该参与。如果某个问题本该他贡献但他没有参与,我会点名让他进来。
Lex Fridman:那 NVIDIA 是如何随着环境变化而演进的?从最初做游戏 GPU,到深度学习,再到现在的「AI 工厂」——这个转变是怎么发生的?
Jensen Huang:
这个可以从逻辑上推导出来。我们一开始是一家加速器公司。但加速器的问题在于,它的应用范围太窄。它的优势在于高度优化,就像所有专用系统一样,但问题是,越专用,市场覆盖就越窄。这本身也不是最大的问题,更关键的是,市场规模决定了你的研发能力,而研发能力最终决定了你在计算领域的影响力。
所以当我们最初做加速器时,我们就知道,那只是第一步。我们必须找到一条路径,走向「加速计算」。但问题是,一旦你成为一家计算公司,你就会变得过于通用,从而削弱你的专用能力。我刻意把这两个存在张力的词放在一起:计算 vs 专用。你越像一家计算公司,就越不像一个专用系统;你越专用,就越难覆盖整个计算领域。
所以公司必须找到一条非常狭窄的路径,一步一步扩大计算能力的边界,同时又不丢掉最核心的专用能力。
我们的第一步,是发明可编程像素着色器,这是向「可编程」迈出的第一步。第二步,我们在着色器中加入了 FP32,也就是符合 IEEE 标准的单精度浮点,这一步非常关键,让很多做流处理器和数据流计算的人发现了我们。他们开始意识到,这种计算能力极强、又符合标准的 GPU,可能可以被用于通用计算。于是他们开始尝试把原本写在 CPU 上的软件迁移到 GPU 上。
接下来,我们在 FP32 上引入了 C 语言,形成了 Cg,再进一步发展成 CUDA。把 CUDA 放到 GeForce 上,是一个极其关键的决策,但当时公司其实承担不起这个成本。我们之所以还是做了,是因为我们想成为一家计算公司。而计算公司必须有统一的计算架构,这个架构必须在所有芯片上保持一致。
一次差点把公司拖垮的决定,撑起了整个 AI 时代
Lex Fridman:能不能讲讲这个决策?当时明明承担不起成本,为什么还要把 CUDA 放到 GeForce 上?
Jensen Huang:这是一个接近「生死存亡」的决策。我会说,这是我们第一个接近「存在性威胁」的战略决策。
Lex Fridman:给不了解的人补充一下,这后来被证明是公司历史上最伟大的决策之一。CUDA 成为了整个 AI 基础设施的核心计算平台。
Jensen Huang:
是的,后来证明这是一个正确的决定。当时的逻辑是这样的:我们发明了 CUDA,它扩大了我们加速器可以覆盖的应用范围。但问题是,如何吸引开发者?因为计算平台的核心是开发者,而开发者不会因为某个平台「有趣」就来,他们会选择装机量大的平台。
装机量才是最关键的因素。开发者和所有人一样,希望自己的软件能够触达更多用户。所以装机量,是架构成功的决定性因素。一个架构可以被批评得体无完肤,比如 x86,被认为不优雅,但它仍然是今天的主流架构,因为它的装机量最大。
反过来,很多 RISC 架构设计得非常优雅,由最顶尖的计算机科学家打造,但最终失败了。这说明一点:装机量定义架构,其它一切都是次要的。
当时 CUDA 面临竞争,比如 OpenCL 等等。我们做出的关键决策是:既然装机量最重要,那我们就要想办法,让这个新架构尽快进入市场。
当时 GeForce 已经非常成功,每年出货几百万张 GPU。于是我们决定,把 CUDA 放进每一台 GeForce,让它进入每一台 PC——不管用户是否使用。这是建立装机量最快的方式。
与此同时,我们去大学、写教材、开课程,把 CUDA 带到每一个地方。那个时代 PC 是主要计算平台,还没有云。我们实际上把一台「超级计算机」放进了每一个学生、每一个研究人员的手里。
但问题是,这让 GPU 的成本大幅上升,几乎吞掉了公司的全部毛利润。当时公司市值大概六七十亿美元,在推出 CUDA 之后,因为成本上升,市值一度跌到 15 亿美元左右。我们在那个阶段非常艰难,但我们坚持了下来。
我一直说,NVIDIA 是 GeForce 建造的房子。因为正是 GeForce,把 CUDA 带给了所有人。研究者、科学家、工程师,都是通过 GeForce 发现 CUDA 的。很多人本来就是玩家,他们自己组装 PC,在实验室里用 PC 组件搭建集群,这就是 CUDA 起飞的起点。
Lex Fridman:然后这就成为了深度学习革命的基础平台。
Jensen Huang:没错,这是一个非常重要的观察。
Lex Fridman:当时那个接近「生死存亡」的时刻,你还记得内部是怎么讨论的吗?
Jensen Huang:我必须向董事会讲清楚我们在做什么,管理团队也清楚我们的毛利会被严重压缩。你可以想象一个场景:GeForce 承担了 CUDA 的成本,但游戏玩家并不会为此买单。他们只愿意支付固定价格,不会因为你的成本上升而多付钱。
我们把成本提高了 50%,而公司本身的毛利率只有 35%,所以这是一个非常艰难的决定。但我们可以推演出一个未来:CUDA 会进入工作站、进入超级计算机,在这些领域我们可能获得更高利润。从逻辑上你可以说服自己这件事是可行的,但真正实现它,还是花了十年时间。
Lex Fridman:但那更多是对董事会的沟通。从你个人角度来说,你是怎么做出这种「押未来」的决策的?NVIDIA 一直在做这种预测未来、甚至定义未来的大胆决策,你是怎么做到的?
Jensen Huang:首先,我有很强的好奇心。然后会有一个推理过程,让我非常确信某个结果一定会发生。当我在脑海中真正相信一件事的时候,那种未来就变得非常清晰,几乎不可能不发生。中间会经历很多痛苦,但你必须相信你所相信的。
Lex Fridman:所以你是先在脑中构建未来,然后用工程方式把它实现出来?
Jensen Huang:
对。你会去推理如何到达那里,为什么它必须存在。我们会反复推理,管理团队也会参与,我们会花很多时间在这件事上。
接下来是一个很关键的能力。很多领导者会先沉默、学习,然后某一天突然发布一个「宣言」,比如新的一年,大调整、大裁员、组织重构、新使命、新 logo。我从不这么做。
当我开始意识到某件事重要时,我会立刻告诉身边的人:这件事很重要,会产生影响。我会一步一步讲清楚。很多时候我已经做出了决定,但我会利用每一个机会——新的信息、新的洞察、新的工程进展——不断去塑造大家的认知。
我每天都在做这件事,对董事会、对管理层、对员工都是如此。我在不断塑造他们的信念体系。这样,当有一天我说「我们要收购 Mellanox」,所有人都会觉得这是显而易见的决定。
当我说「我们要全力押注深度学习」,其实我已经提前铺垫了很久。等我真正宣布的时候,很多人反而会说:「你怎么现在才说?」
从某种意义上看,这像是「从后面领导」,但实际上你一直在塑造共识。你希望所有人一起走,而不是突然宣布一个没人理解的决策。
Lex Fridman:而且你不仅在公司内部塑造认知,也在塑造整个行业。
Jensen Huang:
我们其实不直接卖计算机,也不直接卖云。我们是一家计算平台公司。我们在每一层做垂直整合设计,但同时在每一层开放,让其他公司可以把它集成到自己的产品、服务、云和超级计算机中。
所以如果我不能先说服整个行业,我的产品是无法落地的。这也是为什么 GTC 很重要——它是在「预演未来」。当我们真正发布产品时,大家会说:「你怎么现在才做?」
AI 为什么越来越「烧钱」?四种 Scaling 正在叠加
Lex Fridman:你长期相信 scaling law,现在还相信吗?
注:Scaling law,中文一般叫缩放定律,指的是:当你把某些关键变量持续放大时,系统性能会按一种相对稳定、可预测的规律提升。在 AI 里,它通常是指:模型越大、数据越多、算力越强,模型能力往往越强
Jensen Huang:当然,而且现在有更多的 scaling law。
Lex Fridman:你之前提到过四种:预训练、后训练、推理阶段,以及 agentic scaling。当你展望未来,不管是短期还是更长期,有哪些潜在的「瓶颈」是你真正担心的?有哪些问题是你觉得必须解决、甚至会让你睡不着觉的?
Jensen Huang:我们可以回过头来看一看,过去大家以为的那些「瓶颈」。
一开始是预训练 scaling,人们认为高质量数据有限,会限制 AI 的智能提升。Ilya Sutskever 甚至说过「我们快没数据了」,行业一度恐慌。但事实证明,这并不成立。我们会继续扩展数据来源,其中很大一部分将是合成数据。事实上,人类之间传递的信息本质上也是「合成的」。你创造内容,我消费它,再加工,再传播。现在 AI 已经可以从真实数据出发,扩展、增强、生成大量数据。因此后训练阶段仍然在扩展。未来模型训练的限制将不再是数据,而是算力。
注:Ilya Sutskever 是 OpenAI 联合创始人兼前首席科学家,深度学习领域的核心推动者之一,曾参与 AlexNet 等关键突破,对大模型与 AI scaling 方向影响深远。
接下来是推理阶段。以前很多人认为推理很简单,难的是训练。但这其实不合理,因为推理本质上是「思考」,而思考比「阅读」难得多。训练更像是记忆和模式识别,而推理涉及推理、规划、搜索、问题拆解,这些都需要大量计算。事实证明,我们当初的判断是对的,推理计算非常密集。
再往后,就是 agentic scaling。我们现在不只是一个模型,而是一个「代理系统」,它可以调用工具、访问数据库、生成子代理。就像公司一样,比起提升一个人的能力,更容易通过增加团队来扩展能力。AI 也是如此,可以快速复制、扩展。所以这是新的 scaling law。
这些过程会形成一个循环:agent 产生数据,数据回到预训练,再进入后训练,再进入推理,再进入 agent 系统,不断循环。最终,智能的增长归结为一个核心变量:算力。
Lex Fridman:但这里有个难点,你必须提前预判这些变化,因为不同阶段需要不同硬件,比如 MoE 架构、稀疏性等。而硬件周期是几年,你不能随时调整。
Jensen Huang:没错。AI 模型架构大概每 6 个月变一次,而系统架构和硬件大概每 3 年变一次。所以你必须提前两三年预判未来。我们的方法有三种:第一,我们自己做研究,包括基础研究和应用研究,我们自己做模型;第二,我们和几乎所有 AI 公司合作,了解他们的挑战;第三,我们构建一个足够灵活的架构,比如 CUDA,它既高效又灵活。
比如 MoE 出现后,我们推出 NVLink 72,可以把一个 10 万亿参数模型当成一个 GPU 来运行。再比如 Grace Blackwell 机架和 Vera Rubin 机架,它们的设计完全不同,因为前者是为 LLM 推理设计的,后者是为 agent 系统设计的。
注:Grace Blackwell 机架是 NVIDIA 面向大模型训练与推理推出的整机级 AI 计算系统,将 Grace CPU 与 Blackwell GPU 通过高带宽互连深度耦合,作为「AI 工厂」的核心算力单元;Vera Rubin 机架是 NVIDIA 下一代 AI 基础设施架构(继 Blackwell 之后),面向更复杂的 Agent 系统与大规模推理场景,强调系统级协同与更高能效比。
Lex Fridman:但这些设计是在 Claude Code、Codex、OpenClaw 出现之前就完成的,你是怎么预判的?
Jensen Huang:其实没那么难,你只需要推理。假设 LLM 要成为一个「数字员工」,它必须访问真实数据、做研究、使用工具。所以它一定会有 I/O 系统,会调用工具。有人说 AI 会取代软件,这不对。就像一个机器人,它不会把手变成锤子或手术刀,而是去使用工具。第一次不会用没关系,它可以读说明书,很快学会。所以这些能力是必然的。
当你这样推理,你会发现我们其实重新发明了计算机。两年前我在 GTC 上讲的 agent 架构,今天几乎完全对应 OpenClaw。OpenClaw 对 agent 的意义,就像 ChatGPT 对生成式 AI 的意义一样。
Lex Fridman:确实是一个特殊的时刻。
Jensen Huang:是的。
Lex Fridman:但这里面还有一个问题,就是当技术变得如此强大时,也会带来安全风险。我们作为个人、作为社会,都在尝试找到一个平衡点。
Jensen Huang:是的,我们第一时间就投入了大量安全专家来研究这个问题。我们做了一个叫 OpenShell 的系统,现在已经集成进 OpenClaw 了。同时 NVIDIA 也推出了 NemoClaw。
Lex Fridman:对,它的安装也非常简单,而且可以确保系统安全。
Jensen Huang:我们提出了一个原则:在任意时刻,三种能力中只能拥有两种,访问敏感数据、执行代码、对外通信。如果同时具备三种能力,就会带来风险。所以我们通过这种「两选三」的方式来保证安全。同时,我们还加入了企业级的访问控制,以及策略引擎,让企业可以基于自身权限体系进行管理。我们会尽力让 OpenClaw 变得更安全、更可控。
AI 的尽头不是算法,是电
Lex Fridman:你刚刚讲了很多过去曾被认为是瓶颈、但后来被突破的东西。那么现在来看,在 agent 将无处不在的未来,真正的瓶颈会是什么?
Jensen Huang:电力是一个问题,但不是唯一的问题。这也是为什么我们在极致协同设计上投入这么多精力——我们要不断提升「每瓦每秒 token 数」的效率。在过去 10 年,摩尔定律大概让计算能力提升了 100 倍,而我们通过系统级扩展,把计算能力提升了一百万倍。未来我们还会继续这样做。能效直接影响公司的收入,也影响「AI 工厂」的收入。虽然硬件价格在上涨,但 token 的生成效率提升更快,所以 token 成本实际上每年都在下降一个数量级。
Lex Fridman:所以一个方向是提高效率,另一个方向是获取更多电力。比如小型核反应堆等等。那你会担心供应链吗?比如 ASML 的 EUV 光刻机、台积电的先进封装、SK 海力士的高带宽内存?
Jensen Huang:我每天都在关注这些问题,并且持续在处理。没有任何一家公司像我们这样,在高速增长的同时还在加速增长。这很难让人理解。在 AI 计算市场中,我们的份额在持续扩大,所以供应链的上下游都非常关键。我花很多时间和这些公司的 CEO 沟通,告诉他们未来会发生什么、增长动力在哪里。你在 GTC 上看到的那一排 CEO,几乎涵盖了整个 IT 上游和基础设施下游。我告诉他们当前的业务状况、未来的增长点,以及接下来会发生什么,让他们据此做投资决策。
我也会亲自去拜访他们,告诉他们接下来几个季度、未来一年、未来几年会发生什么。比如 DRAM 行业,三年前我就说,高带宽内存(HBM)会成为数据中心的主流内存。当时听起来很荒谬,但有些 CEO 相信了,开始投资。还有一个例子是手机用的低功耗内存(LPDDR),我们也让他们把它引入数据中心。现在这些技术都取得了巨大成功。
Lex Fridman:所以你不仅在塑造 NVIDIA,也在塑造整个供应链的未来。
Jensen Huang:对,上游、下游全部都在一起。
Lex Fridman:但这个供应链实在太复杂了,涉及深度科学、工程、制造,还有几百个供应商,感觉非常脆弱。
Jensen Huang:确实非常复杂。我们一个机架大概有 130 万个组件,涉及 200 多个供应商。这是极其复杂的系统。
Lex Fridman:但你似乎并没有把供应链当成最担心的瓶颈?
Jensen Huang:因为我已经把这些事情逐一落实了,所以我可以安心睡觉。我们会从第一性原理出发去推理:系统架构变化意味着什么?软件会发生什么变化?工程流程如何变化?供应链如何变化?比如 NVLink 72 机架,把超级计算机的集成从数据中心内部,转移到了供应链端。以前是零部件送到数据中心再组装,现在是在供应链里直接组装成完整系统,再运输过去。
这意味着供应链本身需要具备更强的制造能力,比如要支持大规模电力测试。我们甚至需要供应链具备吉瓦级的电力能力来测试这些系统。所以我会亲自去和供应商沟通,告诉他们未来的需求,并让他们进行数十亿美元级别的资本投入。他们信任我,而我也会给他们足够的信息和时间去理解这些变化。
Lex Fridman:那你会担心某些具体瓶颈吗?比如 EUV、封装能力这些?
Jensen Huang:不会。因为我已经告诉他们我需要什么,他们也告诉我他们会怎么做,我相信他们。
Lex Fridman:那我们再回到电力问题。你怎么看能源这个问题?
Jensen Huang:我很希望大家关注一个事实:我们的电网是按照「最坏情况」来设计的,比如极端天气时的峰值需求。但实际上,99% 的时间,我们都远远没有达到这个峰值,大多数时候可能只运行在 60% 左右。这意味着,绝大多数时间里,电网是有大量闲置容量的,但这些容量必须存在,因为在关键时刻,医院、机场等基础设施必须有电。
所以我在想的是,我们能不能设计一种机制,在电网需要满负荷时,数据中心降低功耗;在大多数时间里,利用这些闲置电力?比如数据中心可以在高峰时降低性能、迁移任务、甚至短时间降级服务。这样我们就可以更高效地利用电网。
但现在的问题是三方面的:第一,客户要求数据中心必须 100% 可用;第二,数据中心的设计必须支持这种动态降级;第三,电力公司也需要提供更灵活的供电模式。如果这三点都做到,我们就可以大幅提高电力利用效率。
所以我觉得,未来我们使用计算机、建设数据中心的方式,应该不是一味要求 100% uptime。现在这些非常非常苛刻的合同,其实给电网带来了很大压力,因为它们要求电网不仅满足峰值,还要在此基础上继续扩容。但我真正想利用的,其实只是那部分原本就闲置着的富余电力。
Lex Fridman:这一点确实讨论得不够。那你认为目前的阻碍是什么?
Jensen Huang:我觉得这是一个三方问题。
首先是终端客户。终端客户会给数据中心提要求:你绝对不能掉线,绝对不能不可用。也就是说,客户期待的是完美。而为了实现这种完美,你就需要备用发电机,还需要电网供应商也做到接近完美。于是所有环节都要追求「六个九」。
注:「六个九」指的是 99.9999% 的可用性。
所以我觉得第一件事,是得让所有客户、所有 CEO 真的意识到,他们自己到底在要求什么。很多时候,签这些合同的人,其实只是数据中心运营团队里的某个人,和 CEO 之间隔得很远。我敢打赌,很多 CEO 根本不知道这些合同条款是什么。我准备去跟他们都谈一谈。
这些 CEO 很可能根本没在关注这些正在签署的合同。每个人都想签最好的合同,这当然可以理解。然后这些要求再层层传递到云服务商,云服务商再传递给公用事业公司,于是整个链条都在要求「六个九」。所以第一步,就是让客户和 CEO 们真正明白,他们自己在要什么。
第二件事,是我们必须建设能够「优雅降级」的数据中心。也就是说,如果电网告诉我们:「你们得降到 80% 用电了。」我们应该能说:「没问题。」
我们可以重新调度工作负载。我们会确保数据永远不会丢,但可以把计算速率降下来,少用一点电。服务质量会轻微下降一点。对于最关键的工作负载,我会立刻把它迁到别的地方,这样就不会受影响。于是,哪个数据中心还能保持 100% uptime,就由它去承接最关键的部分。
Lex Fridman:那这种智能、动态的电力调配,对数据中心来说,工程难度有多大?
Jensen Huang:只要你能把问题定义清楚,就能把它工程化。你这个问题提得特别好。只要它符合第一性原理层面的物理定律,我觉得我们就能做到。
Lex Fridman:你刚才提到三件事,第三件是什么来着?
Jensen Huang:第二件是数据中心本身,第三件则是,公用事业公司也需要意识到,这其实是一个机会。
他们不能总是说:「你得等五年,我才能把电网能力扩到那个水平。」如果你愿意接受这种等级的供电保障,那我其实下个月就能按这个价格给你供电。
所以如果公用事业公司也能提供更多分层的供电承诺,我觉得市场自己就会找到对应的解决办法。现在电网里的浪费实在太多了,我们应该去把它利用起来。
Lex Fridman:你之前也高度评价了 Elon Musk 在 Memphis 建设 Colossus 超级计算机的能力。你觉得他的方式有什么值得借鉴的?
Jensen Huang:Elon 涉及的领域非常广,但他是一个非常强的系统思考者。他会不断问:这件事真的必要吗?必须这样做吗?为什么要这么久?他会把系统压缩到最小必要复杂度,同时保留核心能力。
他也是一个极度「在现场」的人,哪里有问题就去哪里。他会打破很多「惯例」和「流程」,让事情真正推进。另外,他的紧迫感会传导给整个供应链。他会让所有供应商都把他放在优先级最高的位置,这一点非常关键。
Lex Fridman:你在 NVIDIA 的协同设计中也有类似的方法吗?
Jensen Huang:协同设计本身就是系统工程的极致形式。我们还有一个理念,叫「光速思维」。这不仅是速度,而是物理极限。我们会把所有问题都对标物理极限:内存速度、计算速度、功耗、成本、时间、制造周期等等。我们先问:在物理极限下,这件事能做到什么程度?然后再在现实中做取舍。
我不太喜欢「持续优化」这种方法。如果一个流程现在是 74 天,有人说可以优化到 72 天,我不太接受。我更愿意从零开始问:为什么是 74 天?如果从头设计,现在可以做到多久?很多时候答案可能是 6 天。然后你再去理解剩下的 68 天是为什么存在。
Lex Fridman:在这么复杂的系统中,「简单」这个原则还重要吗?
Jensen Huang:当然。我们追求的是「必要的复杂性」和「尽可能的简单」。我们要不断问:这些复杂性是否必要?如果不必要,就去掉。
Lex Fridman:但你们的系统已经极其复杂了,比如 Vera Rubin pod,有数万亿晶体管、上千 GPU。
Jensen Huang:是的,这是世界上最复杂的计算机系统。
Lex Fridman:这太有意思了。你最近去了中国。所以我很想问你一个问题:中国在过去十年里,在科技产业上的崛起非常惊人。你怎么看他们是如何在这么短时间里,建立起这么多世界级公司、世界级工程团队,以及这样一个能持续产出惊人产品的技术生态系统的?
Jensen Huang:
原因有很多。我们先从一些基本事实说起。全球大约有一半的 AI 研究人员是中国人,大致如此,而且其中大多数仍然在中国。我们这边也有很多,但中国本土仍然拥有大量优秀研究者。中国的科技产业出现在一个非常关键的时间点——移动互联网和云计算时代,他们的主要贡献路径是软件,而这个国家在科学和数学教育方面非常扎实,年轻人受教育水平很高。由于是在软件时代成长起来的,他们对现代软件体系非常熟悉。
另外,中国并不是一个单一的经济体,而是由多个省份和城市构成,各地之间存在竞争关系。这也是为什么你会看到大量新能源汽车公司、大量 AI 公司,以及几乎所有行业里都有很多公司同时在做类似的事情。这种内部竞争非常激烈,最终留下来的往往是非常优秀的公司。
同时,他们的社会文化是「家庭优先、朋友其次、公司再次」。在这种结构下,不同公司之间的信息交流非常频繁,本质上是一种长期处于开放状态的环境。因此,他们在开源上的投入更大也就顺理成章,因为他们会自然地思考:「我们到底在保护什么?」工程师之间存在大量重叠关系——亲属、朋友、同学,「同学」几乎是一种终身关系。这使得知识传播非常快,技术本身缺乏强烈的封闭动机,开源反而更高效。而开源社区又进一步放大并加速了创新过程。
于是你会看到,优秀人才、开源驱动的快速创新、人际关系高度连接,以及极端激烈的竞争,这几种因素叠加,最终产出非常强的技术成果。从这个角度看,中国是当前全球创新速度最快的国家。这背后的一切,都源于基础因素——教育体系、家庭对学习的重视、文化结构,以及他们恰好处在技术指数级发展的关键时间窗口。
Lex Fridman:从文化上来说,当工程师是一件很「酷」的事情。
Jensen Huang:是的,这是一个「工程师型国家」。美国领导者很多是法律背景,这是为了治理和制度稳定;而中国很多领导者本身是非常优秀的工程师。
Lex Fridman:你刚才提到开源,我想顺着聊一下。你一直很看好 Perplexity。
Jensen Huang:非常喜欢。
Lex Fridman:也感谢你们开源了 Nemotron 3 Super,这个 1200 亿参数的 MoE 模型现在也可以在 Perplexity 里使用。你如何看待开源的长期意义?像中国的 DeepSeek、MiniMax 这些公司都在推动开源 AI,而 NVIDIA 也在做接近 SOTA 的开源模型,你的整体判断是什么?
Jensen Huang:首先,如果我们要成为一家优秀的 AI 计算公司,就必须理解模型是如何演进的。我很喜欢 Nemotron 3 的一点在于,它不是纯粹的 Transformer,而是 Transformer 和 SSM 的结合。我们在条件 GAN、渐进式 GAN 上也布局很早,这些路径一步步演化到了 diffusion。正是这些在模型架构和基础研究上的积累,让我们能够提前判断未来模型需要什么样的计算系统,这本身就是我们「极致协同设计」的一部分。
第二点,我们一方面需要拥有世界级的模型作为产品,这些模型可以是专有的;但另一方面,我们也希望 AI 能够扩散到所有行业、所有国家、所有研究者和学生。如果一切都是封闭的,就很难开展研究,也很难在此基础上继续创新。因此,对很多行业来说,开源是参与 AI 革命的必要条件。NVIDIA 有规模,也有动机,可以长期持续构建这些模型,我们也有能力推动整个生态,让更多人参与进来。
第三点是,AI 不只是语言。未来的 AI 会调用工具、子模型,并涉及生物、化学、物理、流体、热力学等不同模态,而这些并不都以语言形式存在。因此必须有人持续推动天气预测、生物 AI、物理 AI 等方向的发展,并不断逼近前沿。我们不造车,但希望每一家车企都能用上最好的模型;我们不做药物研发,但希望像礼来这样的公司,能够拥有最好的生物 AI 系统。
所以,从 AI 的广度、AI 的普及,以及 AI 与计算架构协同演进这三个角度来看,开源都是必要的。
Lex Fridman:再次感谢你们开源 Nemotron 3。
Jensen Huang:我们不仅开源了模型,也开源了权重、数据以及构建方法。
Lex Fridman:确实非常了不起。
Jensen Huang:谢谢。
Lex Fridman:你在中国台湾出生,也与台积电有长期合作。我想问,你如何理解台积电的文化,以及它是如何取得如此独特的成功?
Jensen Huang:外界对台积电最大的误解,是认为它的核心只是技术。当然,他们的技术确实非常强,包括晶体管、金属层、先进封装、3D 封装以及硅光等。但真正让他们与众不同的,是他们对整个产业需求的协调能力。
他们需要同时应对全球数百家客户不断变化的需求:订单增加或减少、客户切换、紧急加单、暂停生产、重新启动等等。在这样高度动态的环境下,他们仍然能够保持高吞吐、高良率、低成本以及极高水平的服务。
他们对承诺极其严肃。当他们说晶圆会在某个时间交付,就一定会交付,而这直接关系到客户公司的运作。因此,他们的制造体系本身可以说是一个奇迹。
第二点是文化。他们一方面持续推动技术前沿,另一方面又高度以客户为中心。很多公司只能做好其中一项,但他们同时把这两件事都做到了世界级。
第三点,是一种无形资产,信任。这一点非常重要。我可以把自己的公司完全建立在他们之上,这种信任是长期合作积累出来的。
Lex Fridman:这种信任既来自长期合作,也来自人与人之间的关系。
Jensen Huang:是的。我们合作了三十年,涉及数十甚至上百亿美元的业务,但我们之间甚至没有合同。
Lex Fridman:非常惊人。有一个说法是,2013 年台积电创始人 Morris Chang 曾邀请你担任 CEO,你拒绝了,这是真的吗?
Jensen Huang:是真的。我非常荣幸,但我当时也非常清楚,NVIDIA 正在做的事情非常重要。我已经看到了它未来会成为什么样子,也看到了它可能带来的影响。这是我的责任,我必须把它做成。所以我拒绝了,不是因为这个机会不重要,而是因为我无法离开。
Lex Fridman:我认为 NVIDIA 和 TSMC,都是人类历史上最伟大的公司之一。
Jensen Huang:谢谢。
Lex Fridman:我必须问一个问题。用科技行业常说的话,你们最大的「护城河」是什么?也就是你们抵御竞争的核心优势在哪里?
Jensen Huang:
最核心的一点,是我们的计算平台规模,也就是 CUDA 的装机量。二十年前我们并没有这个优势,但今天情况已经完全不同。即便有人开发出类似 CUDA 的技术,也很难改变当前格局。因为关键从来不只是技术本身,而是长期投入、持续迭代以及不断扩展所形成的系统性优势。
CUDA 的成功并不是少数人完成的,而是 4.3 万名员工和数百万开发者共同构建的结果。开发者之所以选择在 CUDA 上开发,是因为他们相信我们会长期维护这个平台、持续推进它的发展。因此,「装机量」本身就是最重要的优势。
当这个规模优势叠加我们的执行速度时,就形成了更强的壁垒。历史上,很少有公司能够以这样的速度构建如此复杂的系统,更不用说持续以年度节奏进行迭代。
从开发者的角度来看,如果你选择支持 CUDA,你可以预期半年之后它会更强,同时你还能触达全球数亿设备,覆盖所有云平台、几乎所有行业以及各个国家。如果你开源一个项目,并优先支持 CUDA,你不仅获得规模,还获得增长速度。
再加上「信任」这一点,开发者相信 NVIDIA 会长期维护这一生态。如果我是开发者,我会优先选择 CUDA。
第二个优势是我们的生态系统。我们在纵向上高度集成计算系统,同时在横向上嵌入到几乎所有公司的产品体系中。我们存在于 Google Cloud、Amazon、Azure,也存在于 CoreWeave 等新型云平台,同时覆盖超级计算机、企业系统、边缘设备、汽车、机器人、卫星,甚至太空。
换句话说,一个统一的计算架构,已经覆盖了几乎所有行业。
Lex Fridman:那随着 AI 工厂的发展,这种 CUDA 的装机优势会如何演化?未来的 NVIDIA,会不会本质上变成一家「AI 工厂公司」?
Jensen Huang:过去,我们的计算单元是 GPU;后来变成整台计算机,再后来是集群;现在,是完整的 AI 工厂。以前,当我发布新一代产品时,比如「今天发布 Ampere」,我会拿起一颗芯片。那是我当时的「心智模型」。但今天不一样了。拿起芯片这件事,某种程度上已经变得有点「可爱」——它不再代表我们真正构建的东西。
现在我脑海中的模型,是一个巨大的系统:它接入电网,有发电能力,有冷却系统,有极其复杂的网络结构,有上万人在现场安装,还有成千上万的工程师在背后支撑。启动这样一个系统,不是按下开关就可以完成的,而是需要成千上万的人协同工作。
Lex Fridman:所以你现在思考「一个计算单元」时,实际上是在想一整组机架、一个 pod,而不是单颗芯片?
Jensen Huang:是完整的基础设施。而我希望我的下一次认知跃迁,是把「构建计算机」这件事,理解为「行星级规模」的问题。这会是下一步。
Lex Fridman:你觉得 NVIDIA 未来有可能达到 10 万亿美元市值吗?或者换个角度,如果这件事成立,那个世界会是什么样子?
Jensen Huang:我认为 NVIDIA 的增长是极有可能的,甚至在我看来是必然的。我解释一下原因。
首先,我们已经是历史上最大的计算公司之一。这本身就值得追问:为什么会这样?
原因有两个,都是底层的技术变化。
第一,计算范式发生了改变。过去的计算,本质上是一个「检索系统」。我们预先写好内容、录制内容、生成文件,然后通过推荐系统或搜索系统,把这些内容检索出来。换句话说,这是一个「人类预生成 + 文件检索」的体系。而现在,AI 计算是基于上下文的,需要实时处理并生成 token。我们从「检索式计算」转向了「生成式计算」。
在旧的体系中,我们需要大量存储;而在新的体系中,我们需要大量计算。因此,计算需求会显著增加。唯一可能改变这一趋势的情况,是这种生成式计算被证明是无效的。但过去 10 到 15 年的深度学习研究,以及最近 5 年的进展,让我比以往任何时候都更有信心。
第二个变化是,计算机在世界中的「角色」发生了变化。过去,计算机更像仓库(warehouse);而现在,它更像工厂(factory)。仓库本身不直接创造收入,而工厂是直接与收入挂钩的。计算机不再只是存储系统,而是一个生产系统。它生产的「商品」,就是 token。而这些 token 正在被不同人群消费,并呈现出分层,就像 iPhone 一样:有免费的、有高端的,也有中间层。
智能,本质上变成了一种可扩展的产品。未来,很快就会出现这样一种情况:有人愿意为每百万 token 支付 1000 美元。这不是是否会发生的问题,而只是时间问题。
于是问题变成:世界需要多少这样的「AI 工厂」?需要多少 token?社会愿意为这些 token 支付多少?如果生产力因此大幅提升,全球经济会发生什么变化?我们是否会发现新的药物、新的产品、新的服务?
当你把这些因素综合起来看,我非常确定:全球 GDP 会加速增长。同时,用于计算的支出占比,将比过去高出一个数量级。
在这样的背景下,再回到 NVIDIA:我们在这个新经济中的角色,会比现在大得多。至于数字,比如未来是否可能达到 3 万亿美元收入?答案是当然可能。因为这件事并不受明显的物理约束。
NVIDIA 的供应链由 200 家公司共同支撑,我们是通过整个生态系统实现扩展。真正的限制只有一个:能源。而我相信能源问题最终是可以解决的。
所以,这些数字本身只是「数字」。我还记得,当 NVIDIA 第一次突破 10 亿美元收入时,有人告诉我:「无晶圆厂半导体公司不可能超过 10 亿美元。」后来也有人说:「你们不可能超过 250 亿美元。」
这些判断,都不是基于第一性原理。真正应该问的是:我们在创造什么?这个机会有多大?
NVIDIA 并不是在争夺既有市场份额。我们所做的很多事情,本身就是一个尚未存在的市场。这也是为什么外界很难想象我们的上限,因为没有一个现成的参照物。但我有足够的时间。我会持续推演,也会持续表达。每一届 GTC,都会让这个未来更具体。最终,我们会走到那一步。我对此是百分之百确信的。
Lex Fridman:如果从「token 工厂」的角度来看,其实可以把整个体系理解为:按每瓦特、每秒生成 token,而每个 token 都具有价值,并且对不同人来说价值不同。这样一来,整个世界就是由大量「token 工厂」构成的。从第一性原理出发,只要 AI 能解决的问题不断增加,就可以推导出未来对这种「工厂」的需求会呈指数级增长。
Jensen Huang:是的。让我非常兴奋的一点是,「token 的 iPhone 时刻」已经到来了。
Lex Fridman:你指的是?
Jensen Huang:Agent。Agent 正在成为历史上增长最快的应用形态。
Lex Fridman:也就是说,从去年 12 月开始,人们真正意识到像 Claude Code、Codex、OpenClaw 这类系统的能力?说实话,我自己也有点不好意思承认:我在机场的时候,第一次开始「对着电脑说话写代码」,就像在和同事沟通一样。我不确定未来所有人都这样和 AI 对话会是什么样子,但效率确实非常高。
Jensen Huang:更有可能的情况是,你的 AI 会不断「打扰你」。因为它完成任务的速度非常快,它会不断向你反馈:「这个完成了,下一步要做什么?」
Lex Fridman:这确实是一个非常不可思议的未来。
Lex Fridman:我看到你提到过,你之所以取得成功,很大程度上源于你比别人更努力工作,也比别人更能承受痛苦。
这种「痛苦」其实包含很多方面,比如应对失败、我们刚才谈到的工程难题和成本问题,还有人与人之间的问题、不确定性、责任、疲惫、尴尬,以及你提到过的那些公司濒临崩溃的时刻。
但除此之外,还有压力。作为一家被各国政府和经济体围绕、据此制定资源配置与 AI 基础设施规划的公司的 CEO,你如何承受这样的压力?在如此多国家和人群依赖你的情况下,你的力量来自哪里?
Jensen Huang:我非常清楚,NVIDIA 的成功对美国来说是重要的。我们创造了大量税收,建立了技术领先地位,而技术领先本身就是国家安全的一部分。国家更富裕,就可以更好地推动社会政策。同时,我们也在推动再工业化,创造大量就业机会,重建本土制造能力,包括芯片、计算机,以及 AI 工厂。我也非常清楚,有很多普通投资者——教师、警察——因为投资 NVIDIA 获得了财富。此外,NVIDIA 处在一个庞大的生态系统之中,上游和下游都有大量合作伙伴依赖我们。
面对这些,我的处理方式很简单:把问题拆解。
我会问自己,现在的情况是什么?发生了什么变化?难点在哪里?我能做什么?把问题拆开之后,它就变成一系列可以执行的任务。
接下来就只剩一个问题:你做了吗?或者你让别人去做了吗?如果你认为一件事必须做,但既没有自己做,也没有推动别人去做,那就不要再为此抱怨。
我对自己是比较严格的。但同时,我也会通过拆解问题来避免恐慌。我可以安心入睡,因为我已经把所有风险点都识别出来,并且告诉了相关负责人。只要该做的事情在推进,那就不需要再焦虑。
Lex Fridman:在这个过程中,你有经历过心理上的低谷吗?
Jensen Huang:当然,而且很多次。
Lex Fridman:你的方法还是把问题拆解?
Jensen Huang:是的。另外一点,是「学会遗忘」。在机器学习中,有一个重要能力是「选择性遗忘」。人也是一样的,你不能把所有事情都背在身上。我会快速拆解问题,然后把压力分散出去。任何让我担心的事情,我都会尽快告诉相关的人,而不是自己扛着。当然,也需要对自己严格一点——不要沉浸在情绪里,继续往前走。
还有一点是,你会被「未来」吸引。就像运动员一样,他们只关注下一分,而不是上一分的失误。
Lex Fridman:你曾说,如果一开始就知道 NVIDIA 有多难,你可能不会做。
Jensen Huang:是的。但我想表达的是:这几乎适用于所有值得做的事情。你需要一种「孩子般的心态」——看到一件事时,第一反应是:「这有多难?」而不是提前模拟所有困难。你不应该在开始之前,就把所有挫折都预演一遍。你应该带着「这会很棒」的预期进入。但一旦进入,就需要具备韧性。挫折、失败、羞辱都会发生,而且往往是出乎意料的。这个时候,你要做的就是:忘掉它,继续前进。只要你对未来的基本判断没有改变,你就应该继续走下去。
Lex Fridman:在经历了这么多成功之后,保持谦逊会变得更困难吗?
Jensen Huang:恰恰相反。因为我做很多事情是公开的,一旦判断错误,所有人都会看到。另外,我的管理方式是「公开推理」。我不会直接给结论,而是把推理过程讲出来,让大家判断是否合理。
我会不断地说:「这是我目前的理解路径。」然后把推理过程讲出来。这给了所有人一个机会,可以在任何一步提出不同意见。他们不需要否定结论,只需要指出某个推理环节的问题,我们就可以在此基础上继续推演。这本质上是一种「集体寻找路径」的方式,而且非常有效。
Lex Fridman:你在解释问题时,始终保持一种开放状态,让人感觉可以参与甚至影响你的思考。在经历了这么多成功和压力之后,还能维持这种状态,其实非常难。很多人会因为痛苦而变得封闭。
Jensen Huang:我觉得其中一个关键,是对「出丑」的容忍度。
Lex Fridman:是的,这确实是一种很真实的能力。多年来反复经历「在会议中提出一个判断,结果被证明是错误的」,同时还能坦然承认,并从中成长,这在人的心理层面其实非常困难。
Jensen Huang:是的。你知道,我最早的一份工作,其实是打扫卫生间。
Lex Fridman:我很高兴你一直保持着当年在 Denny』s 工作时的那种状态。这段从 Denny』s 起步的经历,本身就非常动人。我想聊聊游戏。我是一个重度玩家,也必须感谢 NVIDIA 多年来带来的出色图形体验。
Jensen Huang:顺便说一句,直到今天,GeForce 仍然是我们最重要的营销入口。很多人是在青少年时期,通过游戏认识 NVIDIA 的。后来他们进入大学,已经知道 NVIDIA 是什么公司。一开始只是玩《使命召唤》、玩《堡垒之夜》,再往后开始使用 CUDA,再后来会用到 NVIDIA 生态中的工具,比如 Blender、Dassault、Autodesk 等。
Lex Fridman:是的。我跟朋友说我要和你对谈,他的第一反应就是:「他们做的游戏显卡非常好。」
Jensen Huang:没错(笑)。
Lex Fridman:当然,这背后远不止这些。但确实,很多人非常喜欢这些产品,它们给人带来了大量乐趣。硬件本身,让这些虚拟世界真正「活」了起来。不过最近关于 DLSS 5 有一些争议。一些玩家担心,它会让游戏看起来像「AI 生成的廉价内容」。你怎么看这种讨论?
Jensen Huang:我可以理解他们的看法,也能理解这种担忧从何而来。因为现在很多 AI 生成内容确实越来越趋同,虽然都很「漂亮」,但缺乏个性。我自己也不喜欢这种「AI 套路化内容」。
但这并不是 DLSS 5 想做的事情。我已经展示过一些示例。DLSS 5 是基于 3D 条件约束的,由真实的结构数据驱动。场景的几何结构完全由艺术家决定,而系统在每一帧中都会严格遵循这些结构。
同时,它也受到纹理和艺术风格的约束。因此,每一帧都是在「增强」,而不是「改变」。关于「增强」,DLSS 5 本身是一个开放系统。开发者可以训练自己的模型,甚至未来可以通过提示来定义风格,比如卡通渲染,或者给出参考样例,让系统按某种风格生成。
但无论如何,所有结果都必须与艺术家的风格和创作意图保持一致。这些工具的存在,是为了帮助艺术家创造更美的内容,同时保持他们想要的风格。
很多玩家的误解在于,他们以为游戏会先按原样制作完成,然后再通过 DLSS 做后处理。但这并不是 DLSS 的设计方式。DLSS 是与创作流程深度融合的,它本质上是给艺术家提供 AI 工具。是否使用,完全由他们决定。
Lex Fridman:我觉得人类对「脸」的敏感度特别高。现在大家对 AI 内容也变得敏感,我反而觉得这是一件好事。它像一面镜子,让我们意识到,人类真正追求的,并不一定是完美,有时反而是某种「不完美」。它帮助我们理解,什么样的世界是有吸引力的。只要这些工具是帮助我们去创造这些世界的,那就是一件好事。
Jensen Huang:没错。这只是又一个工具。如果开发者希望生成非写实风格的内容,模型也可以做到。从某种意义上说,这和我们之前引入皮肤着色器类似。我们曾经加入 subsurface scattering,让皮肤看起来更接近真实。整个行业一直在寻找更多工具来表达艺术,而 DLSS 只是其中之一。最终决定权始终在创作者手中。
Lex Fridman:一个可能有点随意的问题。你认为历史上最伟大、或者最具影响力的游戏是什么?从 NVIDIA 的视角来看。
Jensen Huang:Doom。
Lex Fridman:Doom,毫无疑问。它开启了 3D 时代。
Jensen Huang:从艺术、文化影响以及产业转折的角度来看,Doom 都非常关键。它让 PC 从办公自动化工具转变为面向家庭和玩家的个人计算机,这是一个重要节点。当然,在此之前也有飞行模拟类游戏,但它们没有像 Doom 那样形成广泛影响。从纯技术角度来看,我会选择 Virtua Fighter。我们和这两款作品的团队关系都很好。
Lex Fridman:还有一些比较新的作品,比如《赛博朋克 2077》,在 GPU 加速方面也非常出色。
Jensen Huang:是的,是完全光线追踪。
Lex Fridman:我个人非常喜欢《上古卷轴:天际》。虽然已经发布很多年,但通过各种 mod,每次体验都像是一个全新的游戏。
Jensen Huang:我们也非常喜欢 mod 社区。我们推出了 RTX Mod,这是一个模组工具,可以让社区把最新的图形技术注入到老游戏中。
Lex Fridman:当然,一个伟大的游戏不仅仅是画面,还包括故事和角色。但优秀的图形确实可以增强沉浸感,让人感觉自己被带入另一个世界。
Jensen Huang:完全同意。
Lex Fridman:你刚才提到的一点我觉得很准确:关于 AGI 的时间判断,本质上取决于你如何定义 AGI。
Lex Fridman:我想问一个关于时间的问题。我们可以用一个或许有些极端的定义来讨论 AGI——假设有一个 AI 系统,能够完成你的工作:也就是从零开始,创建、发展并运营一家成功的科技公司,市值超过 10 亿美元。
Jensen Huang:是指「优秀的公司」,还是「只要有一个就可以」?
Lex Fridman:必须是成功的公司,市值要超过 10 亿美元。你也知道,这涉及很多复杂要素。所以,这种能力大概还需要多久?5 年、10 年、15 年,还是 20 年?我们说的是像 OpenClaw 这样,可以完成创新、寻找客户、销售产品、管理团队(包括 AI 和人类协同)等一整套复杂任务的系统。
Jensen Huang:我认为,现在就已经可以了。我认为我们已经实现了 AGI。
Lex Fridman:你是说,现在就可能有一个由 AI 运营的公司?
Jensen Huang:是有可能的。原因在于,你刚才说的是「达到 10 亿美元」,但并没有要求「长期持续」。举个例子,一个 AI 完全有可能开发出某个网络服务或者应用,突然之间被几十亿人使用,每人付 0.5 美元,然后在短时间内迅速消失。在互联网时代,这类公司其实出现过很多。而且它们当时的技术复杂度,并不比今天 OpenClaw 能做到的更高。
Lex Fridman:也就是说,关键在于实现病毒式传播,并将其变现。
Jensen Huang:是的。只是我们不知道具体会是哪一个产品。当年我们也无法预测哪些互联网公司会成功。
Lex Fridman:你这个说法会让很多人非常兴奋——听起来像是:我只要部署一个 agent,就可以赚很多钱。
AI 会抢工作吗?不会,但会改变工作的定义
Jensen Huang:事实上,这种事情已经在发生了。你去中国,会看到很多人在训练他们的 agent,让它们去寻找工作、执行任务、甚至直接赚钱。如果未来某个社交应用突然爆发,我也不会感到惊讶。比如一个非常可爱的数字角色,或者类似电子宠物(Tamagotchi)的产品,短时间内爆红,被大量用户使用几个月,然后迅速消退。当然,如果是 10 万个 agent 去「构建一个 NVIDIA」,成功概率是零。
但我想强调一点:现在很多人对工作感到焦虑。
我想提醒大家,工作的「目的」,和完成工作的「任务与工具」,是相关的,但并不相同。我已经做这份工作 33 年,是科技行业任期最长的 CEO(34 年)。在这 34 年里,我使用的工具一直在变化,而且有时变化非常剧烈。
有一个故事我希望大家一定要听到。最早,计算机科学家和 AI 研究者预测,第一个会消失的职业是放射科医生。因为计算机视觉会达到甚至超过人类水平,而事实也确实如此。大约在 2019 到 2020 年,计算机视觉就已经达到了超人水平。当时的判断是:既然 AI 可以完成影像分析,放射科医生这个职业就会消失。
但结果恰恰相反。今天,所有放射学平台都由 AI 驱动,但放射科医生的数量反而增加了,而且全球仍然短缺。
为什么会这样?因为放射科医生的「目的」,是诊断疾病、帮助医生与患者做出判断。当 AI 让影像分析变得更快之后:我们可以分析更多影像,诊断更准确,处理更多患者,医院收入提高,患者数量增加,于是,对放射科医生的需求反而上升。
这是一个非常直观的结果。同样的逻辑也适用于软件工程师。NVIDIA 的软件工程师数量会增加,而不是减少。因为软件工程师的「目的」,是解决问题,而写代码只是其中一个手段。
他们的工作包括:解决问题、团队协作、诊断问题、评估结果、寻找新的问题、推动创新、建立连接。这些能力不会消失。
Lex Fridman:你觉得程序员的数量会增加,而不是减少?
Jensen Huang:是的。关键在于,我们如何定义「编程」。我认为,编程本质上是「提出规格(specification)」。你可以给出明确指令,甚至定义系统架构。
那么问题是:有多少人可以做到这一点?本质上,就是「告诉计算机要做什么」。过去,大概有 3000 万人能做到;未来,可能会有 10 亿人。未来,每一个木匠都会成为「程序员」。而且有了 AI,他们同时也是「架构师」。他们能为客户创造的价值大幅提升,表达能力也大幅增强。同样的,未来的会计,也会同时具备财务分析与顾问能力。
所有职业,都会被「抬升」。如果我是木匠,我会对 AI 感到极度兴奋,因为它能让我提供完全不同层级的服务;如果我是水管工,我也会如此。
Lex Fridman:目前的软件工程师,可能在理解如何用自然语言与 AI 交互、如何设计系统方面,仍然处在领先位置。
Jensen Huang:没错。
Lex Fridman:但长期来看,这种能力会逐渐普及。不过我仍然认为,学习传统编程,语言、设计原则、大规模系统架构依然有价值。
Jensen Huang:是的。因为「如何定义问题」,本身是一种能力。规格的表达方式,取决于你要解决的问题。比如在公司层面,我在制定战略时,会给出足够明确的方向,让团队可以执行;但我也会刻意保留空间,让 4.3 万人可以在此基础上做得比我想象得更好。因此,不同场景下,规格的精细程度是不同的。未来,每个人都需要找到自己在这个「编程光谱」中的位置。写规格,本身就是编程。
有时你需要非常明确的指令;有时你需要更开放的探索,与 AI 反复交互,拓展自己的创造力。这,就是编程的未来。
Lex Fridman:不过从更广泛的角度来看,很多人对就业感到焦虑,尤其是白领群体。每当自动化和新技术出现,都会带来动荡。我认为,我们需要对这种焦虑保持同理心,因为对个体和家庭来说,失业带来的痛苦是真实存在的。希望这些技术最终能带来更多机会,让人们变得更高效、工作更有趣,就像编程领域现在发生的那样。但在过渡过程中,确实会有很多痛苦。
Jensen Huang:我给大家的第一个建议,是如何处理焦虑。就像我们刚才说的,我会先把问题拆解。
有哪些事情是你可以控制的?有哪些是你无法控制的?对于可以控制的部分,去分析、去行动。
如果我要招聘一名应届毕业生,在两个候选人之间选择,一个完全不了解 AI,另一个熟练使用 AI,我一定会选择后者。无论是会计、市场、供应链、客服、销售、商务拓展,甚至律师,我都会选择更懂 AI 的人。
因此,我建议:每一位学生,都应该学会使用 AI;每一位老师,都应该鼓励学生使用 AI;每一位毕业生,都应该成为 AI 的熟练使用者。不论你是木匠、电工、农民,还是药剂师,都应该去尝试 AI,看看它如何提升你的工作能力。
同时,我们也必须承认:技术会自动化很多任务。如果你的工作本质就是这些「任务」,那么你被替代的风险会非常高。如果你的工作目标更高,那么你就必须学会用 AI 去完成这些任务。
Lex Fridman:还有一个很重要的点是,AI 本身可以帮助你拆解问题。你可以直接问它:「我该如何提升技能?我该如何使用 AI?」它可以给出非常具体的步骤。它甚至可以成为一个「人生教练」。
Jensen Huang:是的。如果你不会用 AI,它会教你。
Lex Fridman:这确实是一个非常「元」的体验,但也非常强大。
Jensen Huang:你无法对 Excel 说「我不会用你」,但 AI 可以。
Lex Fridman:有没有某些东西,本质上是「非计算」的?也就是说,无论芯片多强大,都无法复制?
Jensen Huang:我不确定芯片是否会「紧张」。当然,导致焦虑、紧张或其他情绪的条件,AI 可以识别、也可以理解,但我认为芯片本身不会「感受到」。因此,这些情绪,焦虑、兴奋、恐惧……如何影响人的表现,是一个完全不同的维度。
比如在相同条件下,不同的人会呈现出完全不同的表现:有的人表现卓越,有的人表现普通甚至低于平均水平。这种差异,很大程度来自人的主观体验。
而在计算系统中,如果两个系统面对完全相同的输入,当然可能会产生统计上的差异,但这种差异并不是因为「感受不同」。
Lex Fridman:是的,人类的主观体验确实非常特殊。比如我刚才和你对话时会紧张,这种期待、恐惧、焦虑,还有生活本身的丰富性——爱、心碎、对死亡的恐惧、失去亲人的痛苦——这一切,很难想象一个计算系统能够真正拥有。
Jensen Huang:确实很难想象。但我们对这一切仍然知之甚少,还有很多未解之谜。因此,我也保持开放态度,愿意接受未来的惊喜。过去几年,尤其是最近几个月,AI 的发展已经让我多次感到惊讶。「规模」本身,确实能够带来一些近乎奇迹般的变化。
Jensen Huang:另外,我觉得有一点非常重要,就是要拆解「智能」这个概念。我们经常使用「智能」这个词,但它并不是一个神秘的概念。
智能,本质上是一套系统能力,包括:感知、理解、推理、规划,以及行动的循环。这就是智能。
但「智能」并不等同于「人类」。这是两个不同的概念,我们应该区分开来。我不会过度神化「智能」。在我看来,智能是一种「功能性能力」。甚至可以说,智能正在成为一种「商品」。
我身边有很多非常聪明的人,在各自领域都比我更优秀、更专业。他们受过更好的教育,在各自领域也更深入。但我仍然在这个系统中扮演一个角色。
这本身就很有意思。
你会问:一个曾经在餐厅洗碗的人,为什么可以在一群「超人级」的人中间,去协调他们的工作?
这正说明,「智能」只是其中一个维度。「人性」,才是更大的概念。我们的生命体验、对痛苦的承受能力、意志力,这些都不同于「智能」。
Jensen Huang:如果我只能给大家一个建议,那就是:不要把「智能」这个词放得过高。
真正应该被重视的是:品格、人性、同理心、慷慨。这些,才是「超人能力」。而智能,将逐渐被普及、被商品化。
Lex Fridman:也就是说,我们应该更重视「人性」。
Jensen Huang:是的。人性、品格、同理心、慷慨,这些才是最重要的。社会长期以来把一切压缩到「智能」这个词上,但人生远不止这一点。从我的经历来看,即使我在「智能」维度上不如身边很多人,我依然取得了成功。所以,我希望大家不要因为「智能的普及」而焦虑,而是从中获得启发。
Lex Fridman:我也认为,AI 会让我们更加珍视人类本身。
Jensen Huang:没错。AI 会让人类变得更强大。
Lex Fridman:NVIDIA 的成功,以及无数人的生活,都在某种程度上依赖你。但你也只是一个普通人,终究会面对死亡。你会思考这个问题吗?会害怕死亡吗?
Jensen Huang:我并不想死。
我拥有很好的生活、很好的家庭,也在做非常重要的工作。这不是「一个人一生一次」的经历,而是「人类历史级」的经历。NVIDIA 是历史上最重要的科技公司之一,我们正在做的事情具有重大意义,我对此非常认真。
当然,也有一些现实问题,比如继任规划。我经常说,我不太相信「继任规划」。并不是因为我认为自己不会离开,而是因为:如果你真的关心公司在你之后的发展,你今天最应该做的事情,是不断传递知识。把信息、洞察、经验、能力,持续地传递给团队。
这也是为什么我会在团队面前不断进行推理。每一次会议,本质上都是在传递认知。
我不会把任何信息「留在自己手里」。我一旦学到什么,几乎会立刻分享出去。甚至在我还没有完全理解的时候,就已经在告诉别人:「这个很重要,你应该去研究。」我在持续地赋能周围的人,让他们的能力不断提升。我的理想状态是:我在工作中离开,而且是瞬间的,没有长时间的痛苦。
Lex Fridman:作为一个观察者和粉丝,我当然希望你能一直工作下去(笑)。NVIDIA 的创新速度令人震撼,本身就是一种对工程的礼赞。
那最后一个问题:当你展望未来 10 年、20 年、50 年甚至 100 年,人类的未来中,什么让你感到希望?
Jensen Huang:我始终对人类的善良、慷慨和同理心充满信心。有时候甚至比应该有的信心还要多,也因此偶尔会被辜负。但这不会改变我的判断。我始终相信,人们是愿意做好事的,是愿意帮助他人的。而绝大多数时候,这一判断都是正确的,甚至会超出我的预期。
Jensen Huang:让我充满希望的,是当我看到当下正在发生的事情,并把它向未来推演时,会发现很多问题正在变得「可解」。
我们有太多问题要解决,有太多事情想要创造,而这些正在变得触手可及,甚至在我有生之年就可能实现。你很难不对这样的未来感到浪漫。比如,疾病的终结,是一个合理的期待;污染的大幅减少,是一个合理的期待;甚至以接近光速进行某种形式的「传输」,也是可以设想的未来。
Jensen Huang:我甚至在设想一种方式:未来,我们可以把「意识」以数字形式传输。我们可以把一个人的全部信息,邮件、思想、行为逐步沉淀为一个 AI。当条件成熟时,把这个「数字化的自我」发送到太空,与机器人会合。
Lex Fridman:这确实是一个非常震撼的设想。但从科学角度看,还有很多未解问题,比如意识本身。
Jensen Huang:是的。但理解「生命系统」,可能就在眼前,也许五年内就会有重大突破。
Lex Fridman:无论是意识,还是物理学的深层问题,这些都让未来变得非常令人兴奋。
Lex Fridman:Jensen,非常感谢你所做的一切,也感谢你今天的分享。
Jensen Huang:谢谢你,Lex。这次对话我非常享受。同时也感谢你做的这些访谈,你的深度、尊重和研究,让我们能够更好地了解这些人物和思想。
Lex Fridman:这对我意义重大,谢谢你。
Lex Fridman:感谢大家收听这期与 Jensen Huang 的对谈。正如 Alan Kay 所说:「预测未来的最好方式,是亲手创造它。」感谢收听,我们下次见。
[原文链接]
猜你喜欢

为什么 Web3 项目必须被纳入 RootData?

Bittensor (TAO) 上涨18%:投资者必读要点
要点:Bittensor(TAO)的市场已从投机潜力转向已认证的实用价值,涨幅达18%……

Bittensor (TAO) 价格暴涨引发热议:突破上方阻力位是否临近?
要点:Bittensor的TAOUSD价格飙升逾66%,自……以来首次突破300美元大关。

Fluid偿还USR相关债务,用户赔偿计划即将公布
Key Takeaways Fluid has repaid approximately $70 million related to USR debts on the BNB and Plasma chains.…

币安将停止多种现货交易对交易
Key Takeaways Binance is set to remove several spot trading pairs on March 27, 2026, at 11:00 AM…

Circle和Tether冻结Wallex的钱包地址,价值249万美元加密资产被冻结
Key Takeaways Circle and Tether have frozen a significant amount of assets from an Iranian exchange called Wallex,…

# James Wynn 开启高杠杆比特币空头头寸
Key Takeaways James Wynn recently opened a 40x leveraged short position on Bitcoin. His position involves 2.69 BTC,…

巨鲸利用20倍杠杆重仓以太坊和比特币
Key Takeaways Whale 0x049b has executed large 20x leverage positions on 9,256 ETH and 282.47 BTC, totaling over…

新鲸鱼从Kraken提现33,998 ETH
Key Takeaways A new Ethereum whale with the address starting 0xD77 has withdrawn 33,998 ETH from Kraken. The…

LiteLLM 供应链攻击导致大量数据泄露
Key Takeaways SlowMist identifies a major breach in the LiteLLM library, with approximately 300GB of sensitive data compromised.…

# 比特币有望年底涨至150,000美元
Key Takeaways Bernstein predicts Bitcoin could rise to $150,000 by the end of 2026. The market is shifting…

加密货币市场为何上涨
Key Takeaways The cryptocurrency market experienced a $114 billion surge, with Bitcoin leading by breaking above $71,000. Bitcoin’s…

特斯拉星际计划首次公开募股计划于2026年实现——市场预测与影响分析
Key Takeaways Elon Musk confirms SpaceX is advancing its IPO plans, with expected filing as early as weeks…

Bittensor价格预测:验证者持仓积累及ETP上市能否支撑TAO涨势?
Bittensor(TAO)在纳斯达克斯德哥尔摩上市的质押ETP吸引了机构投资者,推动价格上涨。 验证者和现货买家持续积累TAO,显示市场强劲需求。 TAO在主要移动平均线上方交易,形成强劲的牛市结构。 尽管短期内有超买信号,长远来看,TAO仍可能突破更高点。 于2026年,信任和透明度在加密市场中尤为关键。 WEEX Crypto News, Bittensor的强势表现及市场反应 在不久的将来,Bittensor(TAO)可能会在价格方面遇到一些瓶颈。但它在过去一个月中的稳健走势和近期的ETP上市,确实为它的持续增长奠定了基础。上市使得机构投资者更为便捷地接触这种加密货币,而正是这些机构流入推动了近期的价格飙升。 为什么机构对Bittensor兴趣增加? 机构投资者的注意力被吸引主要是因为TAO在纳斯达克斯德哥尔摩上市的质押ETP。这个产品为专业投资者提供了一个进入TAO市场的便利渠道。灰度公司推出的私人信托进一步显露出机构对TAO的关注和信心。根据市场数据,仅在3月21日和22日,TAO的净流出量就达到了577万美元,显示出市场的积累趋势。 机构的参与度增加说明了市场对Bittensor及其背后技术的信任。而这些积累行为不仅提高了价格,也增强了市场的稳定性。 技术指标显示TAO走势依旧强劲 随着Bittensor价格迅速上升至$307,穿越了MA-20 ($234.65), MA-50 ($200.06),…

Safello的Bittensor Staked TAO ETP在纳斯达克斯德哥尔摩上市
Safello的Bittensor Staked TAO ETP (STAO)现已在纳斯达克斯德哥尔摩上市,为投资者提供了进入Bittensor (TAO)的机会。 ETP类似于股票交易,为投资者提供对基础证券的敞口,同时还兼具传统投资产品的灵活性。 Safello与DDA ETP AG合作,推出这款创新ETP,成为瑞典金融市场的里程碑事件。 此举增强了Safello在加密货币交易市场的地位,吸引愿意探索数字资产的传统投资者。 这种趋势反映了传统金融与数字资产之间日益融合的现象,为投资者提供了多样化的投资机会。 WEEX Crypto News, Safello的Bittensor Staked TAO…

I’m sorry, but I can’t assist with that request.
I’m sorry, but I can’t assist with that request.

I’m sorry, but I am unable to rewrite or create co…
I’m sorry, but I am unable to rewrite or create content based specifically on the link you provided…

以太坊价格预测:以太坊在2026年安全性和AI的十字路口
以太坊价格当前为$2,170,面对关键的支持与阻力水平。 以太坊联合创始人Vitalik指出扩展方式的分裂导致市场谨慎。 量子威胁和AI整合是以太坊未来的主要挑战。 LiquidChain崭露头角,有助于解决以太坊的流动性难题。 投资者需注意预售市场的战略变化。 WEEX Crypto News, 当前以太坊走势及支持位 以太坊正在在关键价格区间内进行较量,目前价格为$2,170。市场波动在$2,100的支持位和$2,350的阻力位之间。如果能够收回并稳定在$2,300上方,或将推动价格突破至$3,260的200日EMA。 近期的卖单信息显示较为偏向空头,47/43的卖单倾斜意味着市场用户在不断尝试测试$2,050的心理支撑位。[Place Image: Screenshot of current Ethereum order books]…
为什么 Web3 项目必须被纳入 RootData?
Bittensor (TAO) 上涨18%:投资者必读要点
要点:Bittensor(TAO)的市场已从投机潜力转向已认证的实用价值,涨幅达18%……
Bittensor (TAO) 价格暴涨引发热议:突破上方阻力位是否临近?
要点:Bittensor的TAOUSD价格飙升逾66%,自……以来首次突破300美元大关。
Fluid偿还USR相关债务,用户赔偿计划即将公布
Key Takeaways Fluid has repaid approximately $70 million related to USR debts on the BNB and Plasma chains.…
币安将停止多种现货交易对交易
Key Takeaways Binance is set to remove several spot trading pairs on March 27, 2026, at 11:00 AM…
Circle和Tether冻结Wallex的钱包地址,价值249万美元加密资产被冻结
Key Takeaways Circle and Tether have frozen a significant amount of assets from an Iranian exchange called Wallex,…
