普通视图

发现新文章,点击刷新页面。
昨天以前首页

英伟达被指为训练 AI 大模型,曾寻求安娜的档案高速访问,数据规模达 500TB 级

作者 青小蛙
2026年1月20日 16:29

就在前脚安娜的档案失去 .org、.se 两个域名,还面临永久禁令之后,torrentfreak 继续爆料:在一项集体诉讼中,几位书籍作者引用了英伟达内部文件,声称这家市值万亿美元的公司直接联系了安娜档案馆,寻求高速访问安娜的档案数据,数据规模达 500TB 级别。

有趣的是,安娜的档案曾明确警告英伟达:其所提供的数据为非法获取内容。

英伟达被指为训练 AI 大模型,曾寻求安娜的档案高速访问,数据规模达 500TB 级 50

英伟达自己的大模型

除了卖显卡,英伟达也在训练自己的大模型,包括 NeMo、Retro-48B、InstructRetro 和 Megatron。

英伟达还在自家的 NVIDIA NIM API 免费提供这些模型(限额),另外 NVIDIA NIM 中还有免费的 DeepSeek、QWen 等模型:

英伟达被指为训练 AI 大模型,曾寻求安娜的档案高速访问,数据规模达 500TB 级 51

作家起诉英伟达侵犯版权

torrentfreak 报告称,早在2024年初,几位作者就因涉嫌侵犯版权而起诉英伟达。他们声称英伟达的大模型是在 Books3 数据集上进行训练的。


Books 3

Books3 是一个包含了许多盗版内容的数据集包,于 2020 年首次发布,之后很多大模型都使用了 Books3。不过随着诉讼的到来,Books3 本身已经关闭了,但数据还流传在互联网上。


作为初步回应,英伟达否认侵权,但主张即便使用也构成合理使用。

然而指控并没有消失,上周五作者提交了一份修改后的申诉,「包括阿卜迪·纳泽米安 (Abdi Nazemian) 在内的作者现在引用了各种英伟达内部电子邮件和文件,表明该公司被指曾计划或尝试下载数百万本受版权保护的书籍。」

并称「竞争压力迫使 NVIDIA 进行盗版”,其中包括与备受争议的 Anna’s Archive 库合作。」


英伟达被指为训练 AI 大模型,曾寻求安娜的档案高速访问,数据规模达 500TB 级 52

53. 内部文件显示,竞争压力迫使英伟达走上了盗版之路。2023 年秋季,英伟达面临着一个迫在眉睫的最后期限 – 年度开发者日。自 2022 年 9 月 NeMo Megatron 系列发布以来,OpenAI 发布了 ChatGPT 并取得了巨大成功,导致投资者对人工智能的关注度大幅提升。作为回应,英伟达试图在其 2023 年秋季的开发者日上开发并展示尖端的 LLM。为了获取其内部称为“NextLargeLLM”、“NextLLMLarge”


诉讼还指出「“由于急需书籍,英伟达联系了 Anna’s Archive——这是现存规模最大、也最肆无忌惮的盗版电子书库之一——洽谈获取其数百万份盗版资料,并‘将Anna’s Archive的内容纳入我们大型语言模型的预训练数据中’。”」

「“因为 Anna’s Archive 对其盗版馆藏的‘高速访问’收取了数万美元的费用 […] NVIDIA 试图找出对数据的‘高速访问’是什么样的。”」


英伟达被指为训练 AI 大模型,曾寻求安娜的档案高速访问,数据规模达 500TB 级 53

「我在英伟达的数据策略团队工作,我们正在探索将 Anna’s Archive 纳入我们大型语言模型的预训练数据中。我们想了解您是否愿意分享您在大型语言模型相关方面的工作经验。」


诉讼称安娜的档案承诺向英伟达提供大约 500 TB 数据的访问权限。其中包括数百万本通常只能通过互联网档案馆的数字借阅系统访问的书籍,该系统本身已成为法庭的目标。

不过该投诉没有明确提及英伟达最终是否向安娜的档案支付了访问数据的费用。

另外,英伟达还被指控使用其他盗版资源。包括从 LibGen、Sci-Hub 和 Z-Library 下载书籍。

附:申诉副本下载(PDF

安娜的档案的麻烦

这是首次出现的美国大型科技公司与安娜的档案之间的直接通信细节,导致安娜的档案从个人获取知识下载使用,变成了商业公司使用。并且随着安娜的档案招惹了越来越多的官司,压力也会越来越大。

不知道这是否会导致安娜的档案的消失。

而英伟达方面,应该不会有什么影响,嗯。


原文:https://www.appinn.com/nvidia-anna-archive-500tb/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。

作者 青小蛙
2026年2月3日 19:25

“我们想支持这东西多久?只要我们活着那么久。” 这句话,来自英伟达的创始人黄仁勋。
在2015年说出时,几乎没人能预料到它会成为安卓电视盒子领域的传奇。

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。 47

“我们想支持这东西多久?只要我们活着那么久。”

这是黄仁勋在2015 年英伟达在发布 Shield TV 时说的话。真没想到,当初听起来有点随意的一句话,竟然真的是一个承诺,他不是随便说说的。

英伟达在 2015 年发布了 Shield TV,起售价 200 美金。这是一款多功能的安卓设备,结合了高质量的游戏、流媒体、4K HDR 视频播放和强大的游戏性能,可以说是当时智能电视盒子市场中的佼佼者。

十年过去,这款安卓盒子已经活得比大多数设备都要长久

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。 48

到2025年11月,英伟达为 Shield TV 全系列发布了 Shield Experience 9.2.2 系统更新,意味着这款安卓盒子的寿命,已经超过了10年。

你能想象吗?

大部分安卓设备一般在3~5年后就停止更新了,只有近两年少部分三星和谷歌的旗舰设备,更新达到7年。而这款 2015 年发布的设备,到2025年依然在接受更新。

10岁的 Shield TV 的含金量还在上升

为什么会有 Shield TV

其实,Shield TV 的诞生并不是某个精心策划的市场战略,而是一群工程师的自嗨

回溯到2015年,英伟达的工程团队并没有去做市场研究或用户调研,而是直接问了自己一个问题:“市场上有一款我们自己理想中的安卓电视盒子吗?”答案显而易见——没有。

在接受 arstechnica 采访时,英伟达的硬件工程高级副总裁 Andrew Bell 表示:“当时,部分工程师觉得市场上没有我们喜欢的设备, 所以大家开玩笑说,‘我们自己做一个吧?’这不仅仅是为了产品,更是为了满足我们对功能的需求。”

于是,大家开始着手构思,如何做出一款能满足他们对家庭娱乐的所有期望——高质量流媒体、游戏功能和强大性能,一切都必须在一个设备上实现。

但问题来了: 这样的设备,真能立足吗?

“构建游戏机相当复杂,因为你必须拥有 GPU,而我们知道如何制造 GPU,”贝尔解释道。 “但除此之外,你还需要 CPU、操作系统、游戏,还需要 UI。”

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。 49

直到 2014年,谷歌将 Android 扩展到电视上,才给了英伟达机会。他们之前推出过一些 Shield 系列的移动设备,但连接电视的盒子才是英伟达真正感兴趣的产品。

贝尔解释说:“我们为自己建造了 Shield,这有点自私,”他笑着说道,“我们其实只是想要一款高性能的电视流媒体设备,不想局限于苹果的生态系统。我们做了一些原型,并且非常激动,黄仁勋说,‘我们为什么不把它拿出来卖给大家呢?’

于是,Shield TV 并不仅仅是一款普通的智能盒子,它融合了高质量游戏流媒体、4K HDR播放、AI视频增强等功能,成为当时市场中独树一帜的设备。它不仅要在硬件上领先,更要在用户体验上做到极致。

持续10年的更新

2019 年发布第四代 Shield TV 之后,英伟达就再没有推出过新硬件了。但是 Shield TV 的更新并没有停止。

即便是2015年发布的老版本设备,依然在2025年收到了最新的 Shield Experience 9.2.2 更新,功能越来越完善,体验愈加流畅。

这种更新策略在整个智能家居行业中几乎是独一无二的,许多设备在发布几年后就被遗弃,而 Shield TV 却最终成为了安卓盒子里的常青树。

现如今,你依旧可以在英伟达官网购买到最近一款 Shield TV,售价149 美元。

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。 50

Netflix 按钮

Shield TV 单独出售的遥控器上,有一个大大的 Netflix 按钮:

黄仁勋与安卓盒子的故事:我们想支持这东西多久?只要我们活着那么久。 51

贝尔说,英伟达并没有因为遥控器上的巨型按钮而从 Netflix 获得任何资金。实际上,这是 Netflix 认证计划的一项要求,该计划在 2019 年“非常严格”。他认为 Nvidia 可以通过使用更小的“N”按钮来进行更新。我们只能希望。

同样的,在亚马逊的 FireTV 遥控器上,也有几个巨型按钮,但不止 Netflix。

Shield TV 的未来?

贝尔对于未来是否还有新的 Shield TV 这件事,说到:“我们一直在谈论这件事——我很乐意这样做。”。


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

刚刚,英伟达龙虾登场!黄仁勋暴论频出,「人车家天地芯」冲击万亿收入

作者 莫崇宇
2026年3月17日 06:42

今年英伟达 GTC 主题演讲,应该是史上悬念最少的一届。

2022 年说元宇宙,2023-2024 年说生成式 AI,2025 年说物理 AI。但今年不一样,即便台上英伟达创始人黄仁勋的演讲还没有开始,但台下所有人已经知道答案了——Agent。

包括英伟达也悄悄在 GTC 园区里开设了「Build-a-Claw」互动专区,让与会者现场搭建自己的AI Agent。 从芯片到模型,从英伟达版龙虾到数据中心,今年主题演讲的潜台词只有一句话:

一切都要为 Agent 让路。

专为 Agentic AI 打造的 Vera Rubin 正式发布

如果说 Hopper 架构开启了生成式 AI(Generative AI)的时代,让机器学会了「说话」;那么 Vera Rubin 的使命,就是开启智能体(Agentic AI)时代,让机器学会「干活」。

  • 英伟达 Vera Rubin 架构包含七款芯片、五套机架系统,以及一台用于 AI Agent 的超级计算机
  • 七款芯片分别是 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 交换机、NVIDIA ConnectX-9 超级网卡、NVIDIA BlueField-4 DPU 和 NVIDIA Spectrum™-6 以太网交换机,以及新集成的 NVIDIA Groq 3 LPU
  • 五个机架分别是 NVIDIA Vera Rubin NVL72 机架、NVIDIA Vera CPU 机架、NVIDIA Groq 3 LPX 机架、NVIDIA BlueField-4 STX 存储机架,以及 NVIDIA Spectrum-6 SPX 以太网机架。

过去的 AI 像是一个极其聪明的图书馆管理员,我们问一个问题,它慢条斯理地翻书,然后把答案整理出来。我们对这种速度是宽容的,因为我们自己打字看书也慢。

但 Agent 完全不同。它不仅要用大模型思考,还要疯狂地调用工具——比如打开浏览器、控制云端的虚拟 PC、在无数个数据库里来回比对。更要命的是,AI 对工具的容忍度极低,它要求一切操作都在毫秒级完成。

「它会狠狠地捶打内存。」黄仁勋在台上这样形容。

当模型越来越大,上下文长度从十万 Token 飙升到数百万,还要同时处理结构化和非结构化的数据,传统的算力架构开始喘不过气了。为了应对这种「捶打」,英伟达交出了第一份答卷,全新的 Vera CPU。

这颗芯片特立独行,它是世界上首款专为智能体 AI 和强化学习时代打造的处理器,其效率是传统机架式 CPU 的两倍,速度提升 50%,采用 LPDDR5X 内存,能实现极高的单线程性能、大型的数据吞吐量和极致的能效。

黄仁勋甚至毫不掩饰他的骄傲:「我们从没想过会单独卖 CPU,但现在,这绝对是一个价值数十亿美元的业务。」

紧随其后的是 Rubin GPU,单片芯片直接塞进了高达 288 GB 的海量内存。它就像是一个拥有无限脑容量的思考者,专门用来装载那些体积越来越庞大的超大语言模型,以及处理成百上千万的上下文 KV 缓存。

除了堆叠 CPU 和 GPU,英伟达这次发布的 Vera Rubin 架构,直接把 NVLink 的带宽翻了一倍——260 TB/s 的全互联带宽。

十年前,DGX-1 用第一代 NVLink 把 8 张卡连在一起,那是专为 AI 研究员打造的奇迹;到了 Hopper 时代,是 NVLink 4;而前不久的 Blackwell 架构,用 NVLink 72 实现了 72 张 GPU 的全互联,带宽达到 130 TB/s。

为了配合 Vera Rubin,黄仁勋甚至掏出了被称为 Kyber 的全新机架。在这个机架里,计算节点垂直插入,背后是第六代 NVLink 交换机。完全抛弃了传统的以太网或 InfiniBand 限制,在一个 NVLink 域内直接打通 144 张 GPU。

即便强如 Vera Rubin,在面对「无限生成 Token」的极端需求时,也会感到吃力。

在算力世界里,吞吐量(Throughput,同时处理巨量任务的能力)和延迟(Latency,单次任务的极速响应)是一对物理学上的死敌。英伟达是吞吐量的绝对霸主,但在极致低延迟的 Token 生成上,传统 GPU 架构显得过于笨重。

这时候,Groq 出场了。英伟达早在之前就「收购」并授权了 Groq 团队的技术,在今天正式推出了 Groq LPU(语言处理单元)。

黄仁勋用一款名为 Dynamo 的软件,把这两者完美捏合,首创了「解耦推理(Disaggregated Inference)」。

  • AI 推理前半段的 Prefill(预填充)和极其耗费算力的 Attention(注意力机制),全部交给 Vera Rubin 这个性能王者来处理;
  • 后半段的 Decode(解码),也就是生成 Token 的瞬间,直接卸载给 Groq LPU 来降低延迟。

结果显示,在最具商业价值的高端推理层级,这种组合让性能直接飙涨了 35 倍,且每兆瓦的吞吐量同样提升了 35 倍。

一个开源项目,让所有 CEO 都睡不着觉

主题演讲的后半部分,黄仁勋抛出了一个让全场屏息的判断:OpenClaw,将是这个时代的 Linux,是这个时代的 HTML。

OpenClaw 上线仅数周,下载量和影响力已经超过了 Linux 三十年的积累,其本质上是一套智能体操作系统。它能调用大模型、管理文件、拆解任务、协调子智能体,还能发邮件、发短信,以任何模态与人沟通。

在黄仁勋看来,每一家 SaaS 公司,迟早都会变成 AgaaS 公司,也就是「Agent-as-a-Service(智能体即服务)」公司。而每一位 CEO 现在都必须回答同一个问题:你的 OpenClaw 战略是什么?

当然,开源意味着自由,但企业更需要的是安全。这也是 OpenClaw 规模化落地前最大的障碍。

为此,英伟达联合以 OpenClaw 创始人 Peter Steinberger 为代表的团队,召集了一批顶级安全与计算专家,推出 NeMoClaw 参考架构。

它内置 OpenShell 技术、网络防护机制和隐私路由能力,可以让企业可以在自己的私有环境中安全运行智能体系统。

而支撑这套智能体生态的,是英伟达一整条开源模型产品线。

比如 Nemotron 主攻语言推理,Cosmos 聚焦世界建模,Groot 面向通用机器人,Alpha Mayo 服务自动驾驶,BioNeMo 深耕数字生物学,Earth-2 则专注 AI 物理仿真。

黄仁勋特别强调,这些模型不只是排行榜上的名字。英伟达会持续投入推进,Nemotron 3 之后有 Nemotron 4,Cosmos 1 之后有 Cosmos 2,每一代都会更强。

更重要的是,这些模型全部以基础模型形式开放,任何企业都可以在此基础上继续微调和后训练,打造专属于自己业务场景的定制化智能。英伟达还宣布将与各地区合作伙伴协作,帮助不同国家和市场孵化本土化 AI 能力。

在台上,黄仁勋还宣布了一份让人眼前一亮的合作名单。Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Sarvam,以及 Mira Murati 创立的 Thinking Machines,悉数加入,共同推进 Nemotron 4 的研发。

划重点,英伟达不甘心只做卖铲人,更要亲自下场带头挖金矿,更重要的是,英伟达也是在构建一个生态,一个围绕智能体时代的完整体系。

玩家的显卡钱,是一场长达 25 年的「众筹」

要理解英伟达今天的恐怖统治力,黄仁勋首先把时钟拨回了 25 年前。

那时候没有 ChatGPT,没有大模型,只有一群为了让游戏画面更流畅而疯狂攒机的年轻人。「GeForce 是英伟达有史以来最伟大的营销活动」,黄仁勋在台上笑着说。

黄仁勋非常直白地承认,GeForce 就是用来吸引未来客户的。他们在我们还买不起企业级产品的时候,通过游戏显卡潜伏进我们的电脑。日复一日,年复一年。

也正是依靠一代代游戏玩家的「供养」,英伟达在 20 年前做出了一个当时看来堪称疯狂、甚至差点拖垮公司利润的决定——研发 CUDA,并将它送到了全世界每一个开发者的桌面上。

这可以说是一个在黑暗中蛰伏的故事。连续 13 代架构,长达 20 年的死磕,英伟达彻底把 CUDA 变成了一个装机量过亿的庞然大物。

这也解释了为什么当深度学习的「宇宙大爆炸」来临时,Alex Krizhevsky 和 Ilya Sutskever 们环顾四周,发现除了英伟达的 GPU,他们别无他选。

Nvidia 不是碰巧站在了风口上,而是花了 20 年时间,自己造了一台造风机。

飞轮一旦转动,就再也停不下来了。因为在这个飞轮里,硬件只是载体,真正黏住开发者的是那成千上万个工具、框架和开源项目。

既然当年是 GeForce 游戏显卡把 AI 算力(CUDA)带给了这个世界,那么十年后的今天,是时候让彻底长大的 AI,反哺它最初的「老家」了。

黄仁勋在台上甩出了惊艳全场的 DLSS 5。简单来说,英伟达正在用 AI 重新发明计算机图形学。传统的 3D 渲染是「结构化数据」,它是死板的、百分百可控的;而生成式 AI 是「概率性计算」,它是天马行空、极其逼真的。

以前这两派路线完全不同,但在 DLSS 5 里,英伟达硬是把它们揉在了一起,用可控的 3D 数据打底,用生成式 AI 去脑补和渲染细节。我们看到的画面,既不会出现 AI 经常犯的幻觉错位,又拥有近乎现实的惊人质感。

「生成出来的世界,变得极其美丽,同时又完全受控。」

但这也不只是一帮极客为了高帧率打游戏搞出来的炫技。黄仁勋说,这种将「结构化数据」与「生成式 AI」融合的逻辑,将会在每一个行业里一遍遍重演。

「这是我最喜欢的一页 PPT」

在演讲的高潮,黄仁勋放出了一张极其复杂的架构图,说这是他最喜欢的一页 PPT。接着,他又半开玩笑地说,团队屡次劝他别放这张图,但他偏要放,「反正你们有些人也是免费进来的,这就是门票钱」。

这张「最不听劝的 PPT」,真正揭示了英伟达接下来要吞噬的真正猎物,全球企业的数据中心。

过去,企业的数据分为两类。

一类是结构化数据,也就是常见的数据库 SQL、Pandas 里的那些庞大表格,它们是商业运转的地基。另一类是非结构化数据,比如海量的 PDF、视频、语音,占据了世界 90% 的信息,却因为难以检索而如同废纸。

过去几十年来,处理这些巨型 Excel 表格一直是 CPU 的绝对领地。当人类去查询这些表格时,CPU 的速度勉强够用。但黄仁勋一针见血地指出了未来的趋势,「未来,使用这些结构化数据库的,将是 AI Agents」。

当成千上万个不知疲倦的 AI Agent,以远超人类百万倍的速度同时向数据库发起查询时,传统的 CPU 计算系统连喘息的机会都没有,只会被瞬间压垮。

为了处理这个问题,英伟达掏出了第一把底层杀器:cuDF。它直接越过 CPU,用 GPU 的恐怖并行算力,把这群数据的处理速度拉爆。

而针对非结构化数据,英伟达掏出了第二把杀器,针对向量数据库和非结构化数据的 cuVS。有了这两个底层库,英伟达实际上是捏住了全球数据处理的咽喉,它正在用 AI 的方式,重新定义企业到底该怎么处理数据。

两个工具库的效果也是相当明显。黄仁勋举了非常多合作伙伴的例子,其中提到雀巢公司每天要处理覆盖 185 个国家的庞大供应链数据,在换上英伟达加速的 IBM Watsonx.data 后,速度飙升了 5 倍,成本却骤降了 83%。

这就是「加速计算」的恐怖之处。当速度实现了几个数量级的跃升,成本就会呈断崖式下跌,新的商业模式就会在此刻涌现。

黄仁勋的演讲进行到这里,满嘴都还是「算法」、「库(Libraries)」和「数据帧」,他直言「英伟达是一家算法公司。」

英伟达将自己的算法库深度嵌入每一家云端,客户为了用 Nvidia 的算力和框架,才会去购买云服务。这也是为什么几乎世界上所有的云服务巨头——Google Cloud、AWS、微软 Azure、Oracle,都得排着队,把英伟达的服务请进自己的机房。

曾经呼风唤雨的云厂商,在加速计算时代,似乎都正悄然沦为英伟达庞大生态的「底层基础设施」和「分销渠道」。

英伟达为什么能做到这一切?黄仁勋给出了一个极度反常识的定义,英伟达是世界上第一家「垂直整合,却又水平开放」的公司。

向下,它自己造芯片、造系统;向上,它懂每一个行业的应用场景。

金融界的量化交易员在用它,医疗行业的医药研发在用它,连电信行业那个只会发射信号的基站,在未来也会变成运行 AI 算法的边缘计算节点。

英伟达甚至还推出了机密计算(Confidential Computing),让极其敏感的企业数据和模型可以在完全隔离的环境下运行,连操作员都看不到。这直接打消了巨头们拥抱 AI 的最后一点顾虑。

它把自己封装成一个个底层算法库,然后像水和电一样,悄无声息地接入了所有人的基础设施;看似把所有的利润都分给了生态伙伴,但实际上,英伟达已经牢牢掌握了整个 AI 时代的命脉。

1 万亿美元,而且还会供不应求

根据黄仁勋的判断,到 2027 年,全球 AI 基础设施规模至少达到 1 万亿美元,而且这还是保守估计,实际计算需求会远超这个数字。

这个数字从何而来?答案藏在过去一年英伟达做的那件最重要的事里——AI 推理。

黄仁勋直言,很多人觉得推理很容易,但事实恰恰相反。

高难度推理是 AI 领域最难的事,也是最重要的事,因为它直接带来收入的增长。为此,英伟达在 Hopper 架构巅峰期做出大胆决定,彻底改变架构,打造出 NVLink 72,引入 NVFP4 精度格式,配合 Dynamo、TensorRT-LLM 及全套新算法,还专门建造了超级计算机来优化整套技术栈。

英伟达押注的结果,远超所有人的预期。

黄仁勋曾宣称 Grace Blackwell NVLink 72 每瓦性能提升 35 倍,当时没人相信他。后来 SemiAnalysis 发布评测报告,分析师 Dylan Patel 说黄仁勋说得太保守了,实际提升是 50 倍。

▲黄仁勋打趣道「Monkey King」「Token King」。

按摩尔定律,一代产品通常只能带来约 1.5 倍提升,没人预料到这次会是 50 倍。

性能提升之后,摆在面前的是另一个问题。一座 1 吉瓦数据中心,按 15 年摊销,建造成本就高达 400 亿美元,设备还没放进去。在这样的投入规模下,放进工厂里的计算系统必须是全球最好的,否则每一瓦浪费的电力都是真实流失的收入。

黄仁勋坦言,全球 AI 工厂里正有大量电力被白白浪费。

为此,英伟达发布了 NVIDIA DSX 平台,基于 Omniverse 数字孪生技术,让工程师在真正动工之前,先在虚拟空间里把整座 AI 工厂仿真一遍,从散热到电网,全部模拟清楚。

配合 Max-Q 技术,系统可以在功耗与算力之间实时动态调节。

黄仁勋说,这里面至少还藏着两倍的优化空间。同一套硬件,英伟达更新算法与软件后,Fireworks 等服务商的 token 生成速度从每秒 700 个跃升至接近 5000 个,提升 7 倍。这就是「极致协同设计」的真实含义。

过去数据中心存放文件,现在它生产 token。土地、电力、机房空间决定了工厂上限,而架构优劣决定了产出多少。黄仁勋说,未来每一家公司都会认真思考自己 token 工厂的效率问题,因为算力,就是收入本身。

更重要的是,地球上的 AI 工厂还没建完,英伟达已经把目光投向了太空。

英伟达 Thor 芯片已通过抗辐射认证,率先应用于卫星之上。英伟达正与合作伙伴联合研发名为 NVIDIA Space-1 Vera Rubin 的新型计算机,目标是直接在太空中建设数据中心。

太空没有空气,无法对流散热,散热是一道极其棘手的工程难题。黄仁勋坦承这件事非常复杂,但他相信英伟达有足够优秀的工程师来攻克它。从地面到轨道,英伟达算力扩张的路线,仍在持续。

自动驾驶的 ChatGPT 时刻,已经到来

物理 AI 是未来十年最重要的课题,而黄仁勋用一句话宣告,自动驾驶的 ChatGPT 时刻,已经到来。

英伟达 RoboTaxi Ready 平台此次新增四位重量级伙伴:比亚迪、吉利、五十铃、日产,携手打造 L4 级自动驾驶汽车。

这四家车企每年合计生产约 1800 万辆汽车,体量惊人。加上此前已加入的梅赛德斯、丰田和通用,英伟达的自动驾驶版图已覆盖全球最重要的一批整车制造商。

英伟达还与 Uber 签署合作协议,计划将具备 RoboTaxi Ready(无人出租车就绪)能力的车辆部署至多个城市,并直接接入 Uber 的全球出行网络。

在工业机器人领域,英伟达与 ABB、Universal Robots、库卡等头部企业展开合作,将物理 AI 模型集成至仿真系统,推动机器人大规模进入制造产线。卡特彼勒的加入,意味着重型工程机械也开始走向智能化。

主题演讲的最后,依旧是经典的机器人环节。

近期,《冰雪奇缘》的雪宝机器人已经现身迪士尼海外游乐园,而这一次,它也迈着憨态可掬的步伐登上 GTC 2026 的舞台,和黄仁勋有来有往地对话,动作自然,反应流畅。

它的肚子里装着英伟达 Jetson 计算机,这是整套系统的大脑。它的步态和动作,全部在 Omniverse 虚拟环境中完成训练,靠的是由英伟达、迪士尼和 Google DeepMind 三方联合研发的 Newton 物理引擎,运行于英伟达 Warp 之上。

正是这套物理仿真系统,让雪宝在进入真实世界之前,就已经充分适应了现实物理规律。黄仁勋说,未来的迪士尼乐园所有角色都将拥有真正的智能,在园区里自由走动,与每一位游客展开真实的互动。

演讲开始的时候,黄仁勋说,我要提醒你们,这是一个技术大会。我们将要谈论技术,谈论平台,最重要的是,我们要谈论生态系统。

生态系统?他实在太谦虚了,用生态帝国也不为过,黄仁勋曾经用一块五层蛋糕来描述 AI 产业的结构:最底层是能源和芯片,往上是基础设施、模型,最顶层是应用。

每一层都不可或缺。这个比喻听起来像是在描述一个分工清晰、各司其职的产业格局。但当你把这块蛋糕从底看到顶,会发现每一层里都有英伟达的手笔。

从最早「潜伏」在玩家机箱里的显卡,到主宰全球云厂商的底层框架;从太空里的抗辐射数据中心,到迪士尼乐园里和我们谈笑风生的机器玩偶。

英伟达用 20 年时间造了一台造风机,如今这台机器已经化身为一台永不停歇的 Token 生产厂。在这个工厂里,算力即权力,生态即壁垒。

当所有的企业、用户都在为如何落地 AI 焦虑时,黄仁勋已经悄悄把通往 Agent 时代的门票,塞进了世界上每一台服务器的咽喉。

这场关于未来 AI 的赌局,英伟达不仅既做庄家又做玩家,它甚至要把牌桌都买下来了。

作者:张子豪、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

3A游戏“一键变AI脸”,英伟达DLSS 5被玩家和游戏开发者吐槽!

作者
2026年3月18日 10:08

【GameLook专稿,禁止转载!】

GameLook报道/在GTC 2026上,NVIDIA端出了一项颇具野心的新技术——DLSS 5。

如果只看官方演示,这项技术几乎可以用“惊艳”来形容:在两张RTX 5090的驱动下,画面中的光照更加自然,材质细节显著提升,整体观感甚至隐约逼近离线渲染的质感。

按照英伟达的说法,DLSS 5通过“神经渲染”(Neural Rendering),可以让AI直接参与到光照、材质乃至细节生成的过程中,从而突破传统实时渲染的性能与精度瓶颈。

英伟达CEO黄仁勋在GTC 2026的主题演讲上将其定性为:”DLSS 5 是图形领域的 GPT 时刻——将手工渲染与生成式AI融合,在保留艺术家创作控制权的前提下,实现视觉真实感的质的飞跃。”

同时英伟达表示,DLSS 5正式发布版本将支持单GPU运行,预计于2026年秋季推出。

但与以往DLSS版本发布时“性能提升多少”“画面更清晰了吗”的讨论不同,这一次,围绕DLSS 5的舆论,从一开始就显得有些微妙。

在国内外社区讨论中,不少人对这套技术的第一反应并不是单纯的认可,反而集中在一个颇为情绪化的评价上“AI味太重”。

从已经流传的演示片段来看,这种观感并非空穴来风。一方面,DLSS 5确实让画面变得更加“精致”:反射更丰富、阴影更柔和、材质更细腻。

但另一方面,这种精致又带着一种明显的“统一感”。不同材质之间的差异被抹平,光照趋向某种固定的审美范式,整体画面像是被覆盖了一层风格强烈的后处理滤镜。

就比如这张《生化危机9》女主角格蕾丝的前后对比图,且不说角色容貌像是整容了一样,朝着“只有风扇”博主变化,请问为什么在一个下雨的街道上,女主会突然有了类似在工作室拍硬照的多点打光?

更关键的是,在官方演示的个别镜头中,还出现了明显的技术瑕疵,例如角色手部细节在运动过程中出现缺失、结构不稳定等问题。

这类问题,与当前生成式AI图像和视频中常见的“细节漂移”“结构错误”高度相似,也进一步加重了玩家对其“AI生成感”的直观印象。

如果说这些问题只是技术尚未成熟的阶段性表现,那么真正引发争议的,其实是DLSS 5在技术定位上的变化。

回顾DLSS的发展路径,从最初的超分辨率重建,到后来的插帧技术,其核心始终围绕一个目标:在有限性能下,尽可能接近开发者原本的画面输出。换句话说,它是一个“补偿工具”,服务于既定的视觉结果。

但到了DLSS 5,这一逻辑开始发生变化。所谓“神经渲染”的引入,意味着AI不再只是还原已有信息,而是开始根据训练数据,对画面进行推测与补全。在这个过程中,部分视觉结果不再直接来源于游戏引擎,而是来自模型的预测。

这也就带来了一个此前很少被讨论的问题:当AI参与到最终画面的生成中时,开发者对于画面的控制权,是否会被削弱?

对于强调美术风格与视觉表达的游戏来说,这并不是一个无关紧要的技术细节。当前主流3A项目中,美术团队往往需要在高精度显示设备上,对色彩、材质和光照进行反复调校,以确保最终呈现符合设计预期。

而如果在最终输出阶段,DLSS 5对这些内容进行再加工,那么原本细致打磨的视觉表达,就有可能被一种更“通用”的算法结果所覆盖。对于那些依赖独特美术风格作为卖点的作品而言,这种变化甚至可能削弱其辨识度。

从玩家的反馈来看,这种担忧已经开始显现。

豆包元宝遭受连带伤害

Meta AI无辜被骂

批评不只来自普通玩家,也来自行业内部。Respawn的渲染工程师Steve Karolewics直言:”DLSS 5看起来像是一个过度的对比度、锐化和磨皮滤镜的叠加,与其宣称的’真实光照’相差甚远。”

更进一步来看,这种争议也反映出一个更宏观的趋势:随着生成式AI技术的发展,图形渲染正在从“确定性计算”逐步转向“概率性生成”。在这一过程中,画面不再完全由开发者定义,而是由算法在一定范围内进行“再创作”。

问题在于,这种“再创作”是否应该成为默认选项。

从目前公开的信息来看,DLSS 5是否允许开发者对神经渲染部分进行精细控制,仍然不够明确。

目前只有Bethesda公开回应称,艺术团队将拥有对DLSS 5光照效果的最终控制权。 官方文档也表明开发者可以调整DLSS 5的影响强度、色彩校正,并可以对特定元素使用遮罩排除其影响——例如卡通风格或手绘风格的游戏,可以根据需要进行定制化调整。

这一点至关重要。如果开发者确实拥有足够细粒度的控制权,比如可以选择性关闭AI对角色面部的处理,可以调校光照强度,可以为风格化游戏单独建立AI训练配置。那么DLSS 5依然有可能成为一项对玩家和开发者都有益的工具:用来提升环境真实感、改善光照质量,同时不触碰那些精心设计的艺术风格。

但如果这种控制权只是停留在官方公关层面的表态,那结果将会是另一个故事了。而可能演变为一种对游戏视觉风格的“统一化处理”。

从GTC 2026的展示来看,DLSS 5无疑代表了当前图形技术的一条重要方向。只是相比以往,这一次人们讨论的不再只是“它能让游戏跑得更快吗”,而是一个更基础的问题:

当画面的一部分开始由AI决定时,一款游戏最终呈现出的样子,究竟还在多大程度上属于开发者本身?

对于一个高度依赖风格与表达的内容产业来说,这或许才是DLSS 5真正引发关注的原因。

英伟达给游戏玩家喂 AI 泔水?事情可能没有想象的那么糟

作者 马扶摇
2026年3月19日 16:36

2026 年 3 月 17 日,一位网友在社交平台 X 上这样写道:

坏结局:现在所有的游戏,都变成 AI 泔水(AI slop)了。

这里所指的,不是马斯克那个「全 AI 开发」的游戏,而是英伟达刚刚公布的一个技术预览。

这项技术预览,就是英伟达 GTC(GPU Technology Conference, GPU 技术大会)上公布的 DLSS 5:

▲ 图|Quartz

作为帮助老游戏和中低端显卡焕发新活力的技术,DLSS 在过去几年的口碑还算不错,为什么偏偏 DLSS 5「一石激起千层浪」了呢?

原因很简单:DLSS 5 跨过了「在原有画面上做加强」的底线,开始在游戏画面内叠加「基于 AI 模型生成的新细节了」。

经历过 2025 年末图像 AI 的野蛮生长之后,大家原本就对 AIGC 类内容的「入侵」高度敏感。

而英伟达在 DLSS 5 中尝试的技术路径,在大多数游戏玩家和开发者看来,刚好跨过了那条禁忌的边界线。

▲ 图|Nvidia

实际上,虽然 DLSS 5 因为 AIGC(AI 生成内容)而被大家炎上,但 DLSS 技术本身就是重度基于 AI 学习的,这一点从它的全称「深度学习超采样」就能看出。

但是,相比上一代的 DLSS 4/4.5,英伟达是这样介绍 DLSS 5 的:

DLSS 5 以游戏每一帧的色彩和运动矢量作为输入,并利用 AI 模型为场景注入逼真的光照和材质,这些光照和材质与源 3D 内容紧密关联,确保帧与帧之间的一致性。

其中最出格的,莫过于「利用 AI 模型注入逼真的光照和材质」——

这与 DLSS 4 的几个技术路线,比如多帧生成、光线重构、DLAA 等等,产生了质的差别。

▲ 图|Nvidia

实际上,如果根据英伟达自己的描述,DLSS 5 在处理的「目的」上相比 DLSS 4 就已经截然不同了——

DLSS 4 是在 GPU 有限的前提下,补全分辨率、帧率等等外围参数。

而 DLSS 5,则是以游戏生成的画面为基础,利用 AI 生成本来不存在的材质、光照和反射细节,让画面变得更具真实感:

…… DLSS 5 随后利用其深度理解能力,生成精准的图像,能够处理复杂的元素,例如皮肤的次表面散射、织物的微妙光泽以及头发上的光与材质的相互作用,同时保留原始场景的结构和语义。

更直白一点说——在 DLSS 4 的时候,如果画面原始帧里面,角色的牛仔裤没什么材质细节,处理之后顶多干净一点,但不会让牛仔布凭空变得更精细。

而打开 DLSS 5 之后,算法模型会知道「画面这里是一条牛仔裤」,然后主动加入更精细的牛仔布纹理和材质,哪怕游戏的模型贴图里没有这些细节。

▲ 图|YouTube @ElAnalistaDeBits

而英伟达作为硬件厂商,却跨过了从「加强细节」到「创造细节」的行为,结合之前对于 AI 泔水的反感,才引发了玩家、用户和开发商们的普遍担忧。

这种担心是不无道理的——

老黄又不是游戏创作者或开发商,英伟达越俎代庖之后,DLSS 5 改变了开发者原本想要呈现的画面效果怎么办?

而英伟达官网上的 DLSS 5 演示片,也侧面印证了一部分观众的担忧。

从目前版本的 demo 来看,DLSS 5 的确在「场景感」和「材质细节」上的确让游戏画面变得更真实了。

但抛开氛围不谈,DLSS 5 对于画面主体的修改却非常让人不安:

▲ 图|Nvidia

在官网 demo 中我们能够看到:格蕾丝的颧骨相比原始建模明显更突出了一些,嘴唇也变成了「Ins 风」的泡泡唇。

画面的第一观感,就是 FBI 青涩新人突然变成了在 Onlyfans 晒沙滩豪车大豪斯的欧美女网红——

▲ 图|Nvidia

甚至于这种「通过 AI 强行美化」的行为在英文里还有一个专门的说法,叫做 yassify ——

▲ 图|网络

当然,在看过那么多 AI 泔水之后,原因也不难猜测——

英伟达训练模型所使用的素材,无非是巨量的互联网数据,其中有多少 yassify 的「人造泔水」混进去影响了模型,英伟达既没办法知道、也很难控制。

而 DLSS 5 读取原始帧,感觉「这里有个人脸」之后,就会注入高颧骨、泡泡唇、影棚光等等原本不存在的要素,和原始画面混合在一起。

这种 「DLSS 幻觉」最明显的例子,则来自《星空》demo(超级小陶本人在 GTC 上表示非常支持 DLSS 5)。

原始画面中,人物打光明明是个硬顶光 + 面前漫光的组合,但 DLSS 5 打开之后,竟然凭空多出了一块右侧高光

▲ 图|Nvidia

这种没有细节硬造细节的问题,正是大多数玩家对 DLSS 5 表示反对的原因。

哪怕老黄在公布当天,以及后续的采访中反复表示:

游戏开发者可以自由调节和修改 DLSS 5 细节,让处理后的画面符合原本的艺术风格。

也没能让大家放下心来。

但 DLSS 5 尚未正式发布,GTC 上展示的仅仅是个预览,开发者究竟能够以何种自由度对 DLSS 5 进行调节,仍然是个未知数。

只不过虽然网友们在过去 24 小时内制作了大量 DLSS 5 的梗图,但单纯从应用角度出发,DLSS 5 还是有一定可取之处的——

它的真正发挥空间,不是最近几年的新游戏,反而是一些使用旧引擎的经典作品。

尤其对于贝塞斯达(Bethesda)这类开发商来说,Creation 引擎因为历史原因导致角色建模诡异的问题,被玩家诟病已经不是一天两天了:

▲ 图|TheGamer

刚好在英伟达选出的 DLSS 5 演示里,就有来自《星空》的 demo。

除了增加莫须有的光源和颜色细节之外,我们不得不承认—— DLSS 5 还真让 Creation 引擎的 NPC 变得更「耐看」了一点……

▲ 图|Nvidia

当然,《星空》还是很新的游戏,如果 DLSS 5 能够被正确用在比如《辐射 4》或者《上古卷轴:湮灭重制版》里面,是的确能带来一些体验提升的。

前提是 DLSS 5 正式版发布的时候,能够把这个骇人的「动态画面 bug」给解决掉:

▲ 图|YouTube @Vex

总的来说,DLSS 5 有可取之处吗?

有。

至少以「纯技术」的视角来看,从之前 DLSS 单纯加强原始帧,转向通过 AI 理解画面内容然后针对性优化,在「某些特定情况下」,是可以让一些存在「技术限制」的游戏得到提升的……

比如,DLSS 5 虽然 AI 味精味溢出屏幕,但对冲一下,说不定能让《消逝的光芒 2》变得好接受一点:

▲ 图|SVG

只不过从上面连篇累牍的定语也能知道,现在仅从 DLSS 5 有限的演示片段来看,这东西依然是非常让人担忧的。

目前来看,玩家们最需要关注的,是英伟达能给游戏开发者们提供多少控制权限,以控制 DLSS 5 的算法。

而开发者也需要基于不同类型、不同美术风格、不同角色特点的游戏,有针对性地微调 DLSS 5,才能发挥出恰当的效果。

▲ 图|GamesRadar

但如果 DLSS 5 就是拿个固定的训练集往所有游戏上生搬硬套,那无疑是另一次 AI 泔水的向上污染。

但如果把目光放到 DLSS 5 以外,英伟达在本次 GTC 上释放出的信号,其实是没有脱离 DLSS 的本源的:

除了游戏开发者之外,计算机硬件同样可以参与到「游戏美学」的构建中,两者的重要性甚至不相上下。

如果 DLSS 1-4 解决的是分辨率和帧数问题,而 DLSS 5(如果发展顺利的话)解决画面质量问题,就提供了这样一种可能性——

开发者不再需要头疼由于引擎或者技术导致的各种「艺术审美」问题(比如首发版《赛博朋克 2077》),而是可以把精力放在玩法创新和剧情创作上。

换句话说:贝塞斯达万一出了支持 DLSS 5 甚至 DLSS 6 的老滚 5 重制版,依然可以支持曾经的 mod,而角色外观终于可以更现代化一些了。

那岂不是杯赛玩家狂喜?而老滚 6 又可以多苟几年。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌