黄仁勋:家用 240W,这才是交给马斯克的“第一台 AI”

AI深度研究员·2025年10月17日 08:19
不是“交付模型”,而是“交出火种”。

2025 年 10 月 15日,英伟达 CEO 黄仁勋亲手把一台小巧得像纸质书的设备,交到了马斯克手里。

地点在德州,星舰发射基地。

他说:“想象一下,把最小的超级计算机,放在最大火箭旁边工作。”

这并非一次普通的设备交付,而是一场隆重的仪式。在工程师们的夹道欢迎中,马斯克郑重接过这台名为 DGX Spark 的机器。

与此同时,全球另一端,一场规模空前的收购刚刚完成: 贝莱德、微软、英伟达联合组成财团,以 400 亿美元,收购了全球最大数据中心运营商之一 Aligned。 这笔交易背后,是 AI 产业疯狂扩张的底层共识:算力,是核心资源。

但就在资本大举押注 5 吉瓦级别的“云上战场”时,黄仁勋悄悄打开了另一扇门。

DGX Spark不是更大的GPU,也不是性能最强的主机。

它能本地跑2000亿参数大模型,接入戴尔、联想、惠普的桌面系统,支持Ollama、Roboflow、LM Studio运行私有模型。

它代表着AI正从云端中心走向个人边界,不再只是建在远方的基础设施,而是第一次真正装进了你的桌面。

这台1.2公斤的超算,它的意义远不止于一个产品发布。

因为真正重要的,不是他把一台 AI 超算交给马斯克。

而是他把整个 AI 的未来方向,交到了我们每个人手上。

第一节

第一台,离你最近的AI设备

“我们第一次把 AI 超算,带到了每个人桌上。” 黄仁勋说这句话时,不是在描述一个未来愿景,而是手里拿着一台真正可以拎起来的机器。

这台机器叫 DGX Spark。

只有一本书的大小,重1.2公斤,功耗只有240瓦,插在普通插座上就能运行。 它能做的事,却是过去要放进一个大型数据中心,甚至需要几百千瓦电力才能完成的。

它可以在本地运行 2000 亿参数的大模型。完全不用连云。你在办公桌上就可以训练、微调、部署 AI 应用。

黄仁勋在早前的发布会上连用了几个 “你”,这是他特意想强调的事情: AI 不该只是少数公司的特权。它该像手机、笔记本电脑一样,人人都能拥有。

过去,AI 通常是远程调用的:

想运行一个大模型,你得连上 OpenAI 或 Anthropic 的云端

想让 AI 看图、听声、帮你写东西,你得上传数据、交给别人处理

AI 的“智能”,本质上是在“别人的电脑”上完成的

而 DGX Spark 改变的是这一点:这是我们第一次,把真正的 AI 能力,打包进一台随时可用的个人设备。

Spark 内部搭载了英伟达最新一代 GB10 Grace Blackwell 芯片, 配有 128GB 统一内存,可以支持图像生成、语音识别、本地问答、搜索、写作、编程、推理等复杂任务。 这不是一个“更小的GPU”,而是一整套 AI 能力打包好的工具箱。

为什么这台机器特别?

黄仁勋没有讲参数,而是描绘了一个画面:想象一下,一个艺术家、一个设计师、一个程序员,在办公室、在书桌前,就能用这台机器做他们想做的事。

这也解释了,为什么惠普、戴尔、联想、华硕这些传统 PC 厂商,会在第一时间全线接入 Spark 架构。 因为这不再是“企业用AI”,而是“人人都能用AI”。

这不只是一台机器,它标志着一件事的开始:

AI,第一次,离我们那么近。

第二节

不是“交付模型”,而是“交出火种”

很多人以为,DGX Spark 是一台新的计算设备。 但黄仁勋本人并不是把它当作一台“新品”在介绍。

他把这次交付称作:

像把“火种”交给每一个需要它的人。

这次交付的现场,也确实像一场“点火仪式”。

德克萨斯州,SpaceX星舰发射基地。

黄仁勋拎着 Spark 穿过火箭工厂,在一群穿工装的工程师之间走过。 马斯克出现在餐厅里,正给员工和小朋友拆甜点。 见面后,他亲自带领黄仁勋参观火箭工厂,并在此笑着接过了对方递来的机器,在场人员的掌声见证了这次实打实的亲手交付。

这不是第一次。

黄仁勋还记得 2016 年把第一台 DGX-1 超算交给 OpenAI 时的情景:

“那时我像外卖员一样把机器送到旧金山,客户是一个叫 OpenAI 的非营利组织。那台机器,就成了他们训练 GPT 的起点。”

这次是第二次。但意义已经完全不同。

第一次,AI 刚刚起步。 第二次,AI 开始走进每个人的日常。

他没有谈芯片频率,也没有提算力跑分。 他强调的是一个场景:

“这台机器,就像你身边的助手,等你发出第一个问题。”

英伟达这两年正是在做这样的转变。

他们不再只是交付芯片,而是交付能立刻用起来的能力。你打开机器,就能运行图像生成模型FLUX.1,可以用它做视觉搜索代理,也可以部署自己的问答机器人、语音助手、写稿工具。

“它不是工具箱,而是火种。未来每个开发者、创作者、公司员工,都能点燃属于自己的 AI。”

我们常常说 AI 进入千行百业,但过去大多数情况是你必须等别人提供服务、开API、放模型给你用。你只是个“用户”。

但当DGX Spark被一个人亲手拿到、摆在桌上、插电开机、自己训练模型的那一刻开始,角色就变了。

你从使用者,变成了“点火的人”。

重要的不是体积缩小,而是 AI 终于从云端走进了个人手中。

第三节

从1GW到240W,靠三件事降下来

过去你要用一次大模型,背后可能要调用整整一个数据中心。 从供电、散热,到维护和调度,AI 成本高得惊人。

一台顶级训练服务器,功耗能达到 10 万瓦, 一个超级工厂,轻松就突破 1 吉瓦(10 亿瓦), 相当于几百万家庭同时开灯开空调,约等于一座小城市的用电量。

但现在,一台 240 瓦 的桌面设备就能运行起大模型。 而且不需要排队、不需要云服务费用,也不需要交出数据。

这个转变不是突然出现的,它背后有三件关键的事,黄仁勋说得非常清楚。

第一件事:把整套AI流程放进一个设备里

黄仁勋提到:

“我们不只是提供芯片,而是从芯片、到编程语言、到预训练模型,一整套打包。客户插上电源就能用,不需要自己组装。”

这就像早期电脑需要自己组装主板、内存、硬盘,而现在你买的是开箱即用的笔记本。

Spark的最大变化,就是把运行AI所需的全部组件,包括芯片、内存、模型、软件工具和微服务,全都提前集成好。 你拿到手就能用,就像现在你打开手机就能拍照、打车、聊天一样。

这大大减少了搭建AI 的成本。

第二件事:效率高,才是真的便宜

AI 投资不能只看性能,要看单位能耗的收益产出。如果你们比别人节电3倍,客户的利润就多3倍。

什么意思?

不是谁的芯片快就好,而是谁在相同电费下,干的事更多。

英伟达从芯片到组网技术都做了优化, 让DGX Spark能用240瓦跑出远超以往的数据效率。 而且设备小,几乎不需要额外的冷却系统,连散热器都可以简化。

这就意味着:

  • 个人买得起
  • 公司部署得快
  • 不再依赖专业机房
  • 成本从“千万级”拉到“万级”甚至更低

第三件事:人人都能接入这条链路

以前部署 AI 需要非常复杂的环境:云服务账户、海量远程算力、安全权限设置、多团队协作和审批流程。

但现在,从戴尔、联想到惠普,几乎所有PC大厂都接入了Spark架构,只要你用的是这些机器,就能直接运行Spark兼容的模型。

英伟达还预装了完整的AI软件栈:包括常用的训练工具、模型接口和部署环境。 这就像过去开车需要考驾照,而现在坐网约车,点一下就能走。

AI 门槛第一次降到了点开就能用的程度。

黄仁勋用一句话总结:

“不是客户在等 AI 变便宜,而是我们要让 AI 变得随手可得。”

从中心化部署,到终端可用,从千瓦级设备,到百瓦级桌面, DGX Spark 的意义不只是能用,而是谁都能用。

这才是 AI 成本真正打下来的关键。

第四节

AI主权不只是国家的,也是个人的

在以往的 AI 布局里,讨论“主权”,往往意味着国家层面的竞争。

比如英伟达的芯片出口限制、各国抢建AI大模型、政府扶持本地算力平台…… 这一切的核心都是AI 不能全靠进口,要有自主能力。

黄仁勋也表示:任何国家都不应完全外包国家数据,再进口智能。即便可以从外部买技术,也要保留自己的AI训练和部署能力。

但他也补了一句:

不只是国家需要主权,每家公司、每个人也需要。

这背后的问题是:谁拥有数据,谁就拥有智能。

AI 模型要不断学习,而训练数据的选择,决定了它最终的输出能力。 过去的大模型,比如 GPT、Claude、Gemini,虽然功能强大,但都是别人训练的。你在使用它们时,其实是在调用别人的智能系统。

而 Spark 的出现,改变的就是这一点:你不再只是借用,而是可以自己训练、自己部署,甚至自己定制模型。

这也是为什么黄仁勋不断强调:

“企业不能只依赖外部AI服务,那会让专有数据变得脆弱。未来每家公司都应该有自己的AI员工。就像HR部门负责人类员工一样,IT部门要负责招聘、训练、管理数字员工。”

这不只是比喻,背后已经有完整工具链支持:

英伟达与 智能数据基础架构企业 NetApp 合作的 AFX 架构,让企业能直接把自有数据(比如PDF合同、设计图纸、实验数据)转化为AI能理解的语义素材,接入模型做出回答、生成、分析,全过程都在公司内部完成,不出门、不上传、不外泄。

更关键的是,这种私有 AI 能力不再是大企业的专利。

个人开发者也可以在 Spark 上部署本地模型,不需要上传数据、不开API权限、也不受平台接口限制。你只需要一台机器,一些资料,一点耐心,就可以拥有一个专属的AI助手。

过去大家把 AI 看成是个远程工具,连上云、输入指令、等它回复。但未来,AI将成为你身边的伙伴,理解你的语言、熟悉你的需求、保护你的隐私。

这种转变赋予了AI主权新的含义:它不只是国家的底线,更是每个人的选择权。

第五节

桌面革命之后,AI应用生态全面重排

过去十年,AI应用几乎都部署在云端:

聊天机器人,嵌在网页或APP里

代码助手,要装在浏览器插件里

视频生成,得排队等待服务器渲染

这些服务虽然强大,但背后逻辑是统一的:用户连接服务器→提出问题→远程计算→接收结果。 用户始终是“使用者”,不是“参与者”。

但从 DGX Spark 开始,这种关系正在改写。

AI 不再远在云端,而是直接运行在你的桌面上。

英伟达在发布 Spark 时特别列出了一批实际应用场景:

  • Ollama:可在本地运行开源大模型(如Mistral、Gemma),不连网也能对话
  • Roboflow:训练视觉识别模型,只需拖入图像就能快速微调
  • LM Studio:本地问答机器人搭建平台,支持长文档处理与定向知识上传
  • NYU实验室:利用Spark在校园本地训练隐私敏感AI,不依赖云服务
  • Zipline无人机:在Spark上进行边缘计算与任务推理

这类应用正在迅速兴起,它们的共同特征是:不需要远程连接,不需要云端调用,不需要大模型授权,用户可以自定义、修改、二次训练。

也就是说,AI第一次像App一样,变成你自己的东西了。

这带来一个重大变化:入口被重排了。

过去是模型厂商定义能力,用户排队调用,软件开发者只能套用别人家的API。 现在是谁先抢占本地体验,谁就变成新的入口。

生成式计算,正像搜索、操作系统、浏览器一样,变成一种新的入口形态。以Perplexity为例,你不是点开网站检索已有信息,而是直接生成答案。未来不再是你问它答,而是它先理解你,主动提供帮助。

这背后意味着什么?

不是谁模型大谁赢,而是谁最先出现在用户开机后的第一个界面,谁就成了新的 AI 起点。

这也是为什么Spark的发布,不只是一台设备的事。

它背后带起的,是一个新的生态:

创作者可以本地跑模型剪片、生成音乐、做内容分发。企业可以本地部署AI员工协助写文档、整理数据、自动回复客户。开发者可以定制个人语义搜索工具,不再被平台封口或限速。教育机构可以给每位学生配置专属AI辅导,数据不出校门。

在这场本地化浪潮中,真正具备竞争力的,不是谁技术领先三个月,而是谁真正走到了桌面,走到了人前

Spark 的意义不仅在于技术突破,更在于它代表了 AI 发展的新方向:从云端垄断到个人掌控,从远程服务到本地伙伴。

这场入口重排才刚刚开始。

结语

不是AI变小了,是它终于触手可及了

240瓦,1.2公斤。

这可能是 AI 历史上最重要的数字。

不是因为它代表着性能突破,而是因为它标志着一个时代的开始。AI终于从远方的工厂,走进了每个人的书桌。

当黄仁勋把这台机器交给马斯克时,他交出的不只是一台设备,而是 AI 发展的新起点。

第一台真正属于个人的AI。 现在,它已经站在你面前。

所以问题变了。

不是 AI 能做什么,而是你想让它为你完成什么。

原文链接:

https://www.youtube.com/watch?v=m1wfJOqDUv4&t=13s

https://www.youtube.com/watch?v=dBsrx5I9egQ&t=1s

https://blogs.nvidia.com/blog/live-dgx-spark-delivery/

https://www.techspot.com/news/109852-jensen-huang-hand-delivers-nvidia-dgx-spark-desktop.html

https://www.pcgamer.com/hardware/processors/imagine-delivering-the-smallest-supercomputer-next-to-the-biggest-rocket-jensen-delivers-a-dgx-spark-to-musk-at-spacex-facility-but-some-think-the-nvidia-launch-is-little-more-than-a-pr-stunt/

https://www.pcguide.com/news/nvidia-ceo-jensen-huang-delivers-worlds-smallest-ai-supercomputer-to-elon-musk-at-spacex-hq/

https://fortune.com/2024/02/22/jensen-huang-elon-musk-openai-first-ai-supercomputer-sam-altman/

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,编辑:深思,36氪经授权发布。

+1
28

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

成功招到超级人才仅仅是个开始。

16小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业