小模型也开始卷起来了!
在麻省理工学院衍生公司LiquidAI发布了一款小到可以装在智能手表上的新AI视觉模型,以及谷歌发布了一款可以在智能手机上运行的小型模型之后,英伟达也加入了这场浪潮,推出了自己的新型小型语言模型(SLM):NemotronNanov2。
这款9B的“小”模型在复杂推理基准测试上的准确率与Qwen3-8B相当或更高,速度快6倍。
再联系到他们前些天发布的论文观点:小模型才是智能体的未来,看来真不只是说说而已。
除了这款模型,他们首次“自豪地”开源了用于创建它的绝大部分数据,包括预训练语料库。
让我们来看一下……20万亿?NemotronNanov2在20多万亿个token上进行预训练?
技术报告显示,NemotronNanov2在复杂推理基准测试上的准确率与同等规模的领先开源模型Qwen3-8B相当或更高,同时吞吐量——也就是模型速度——最高可提升6倍。
这款模型由英伟达从头训练,设计目标是成为兼顾推理与非推理任务的统一模型。
模型在响应用户查询或执行任务时,会首先生成推理过程(reasoningtrace),随后输出最终答案。该模型支持“思考”预算控制,在推理过程中,用户可以指定模型被允许“思考”的token数量。
如果用户希望模型直接给出最终答案(跳过中间推理步骤),可通过配置实现,但这一做法可能导致对复杂推理类提示的准确率下降。
相反,若允许模型先展示推理过程,通常能显著提升最终答案的质量,尤其针对需逻辑分析的复杂任务。
面对网友“思考预算控制是如何实现的”的问题,英伟达的模型训练师OleksiiKuchaiev表示:
我们最初采用了与Qwen3相同的实现方法,但发现当强制要求模型直接输出答案时,它仍会在预设的思维链之外进行“思考”。通过对截断思维链的训练,我们成功解决了这个问题。
评估结果显示,与其他开源小规模模型相比,NemotronNanov2在准确率上具有优势。在NeMo-Skills套件的“推理开启”模式下测试,该模型在AIME25上达到72.1%,在MATH500上达到97.8%,在GPQA上达到64.0%,在LiveCodeBench上达到71.1%。
在指令遵循和长上下文基准测试中的得分也有报告:在IFEval上达到90.3%,在RULER128K测试中达到78.9%,在BFCLv3和HLE基准测试中也有较小但可测量的提升。
NemotronNanov2经过了以下训练过程:
预训练:模型使用FP8精度在20万亿个token上进行预训练,采用Warmup-Stable-Decay学习率调度。随后进入持续预训练长上下文扩展阶段,使其在不降低其他基准测试性能的情况下达到128k的能力。
后训练:NemotronNanov2通过监督微调(SFT)、组相对策略优化(GRPO)、直接偏好优化(DPO)和人类反馈强化学习(RLHF)进行后训练。约5%的数据包含故意截断的推理轨迹,从而在推理时实现细粒度思考预算控制。
压缩:最后,基础模型和对齐模型均经过压缩(剪枝和蒸馏),支持在单个NVIDIAA10GGPU(22GiB内存,bfloat16精度)上进行128ktoken的上下文推理。这一成果是通过扩展基于Minitron的压缩策略实现的,该策略专门针对受限条件下的推理模型压缩需求而设计。
除了NemotronNanov2模型本身,英伟达还发布了两个基础模型NVIDIA-Nemotron-Nano-12B-v2-Base(对齐或剪枝前的基础模型)和NVIDIA-Nemotron-Nano-9B-v2-Base(剪枝的基础模型),对应模型训练的不同阶段,均支持128k上下文长度。
最后,NemotronNanov2当前支持在线试用,链接可见文末。
除了NemotronNanov2,英伟达首次发布了他们用于创建模型的绝大部分数据,包括预训练语料库。
至于为什么是“绝大部分”,有网友问了这个问题,官方回复简直不要太有道理(笑)。
预训练数据集Nemotron-Pre-Training-Dataset-v1包含66万亿个优质网络爬取、数学、代码、SFT和多语言问答数据,并分为四个类别:
Nemotron-CC-v2:作为Nemotron-CC的升级版本,新增收录了2024至2025年间八个批次的CommonCrawl网络快照数据。数据已进行全球去重,并使用Qwen3-30B-A3B进行合成改写。它还包含翻译成15种语言的合成多样化问答对,支持强大的多语言推理和通用知识预训练。
Nemotron-CC-Math-v1:一个基于CommonCrawl、使用英伟达的Lynx+LLM流程生成的1330亿token的数学专注数据集,在保留方程和代码格式的同时,将数学内容标准化为LaTeX格式。这确保了关键的数学和代码片段保持完整,从而生成高质量的预训练数据,在基准测试中优于先前的数学数据集。
Nemotron-Pretraining-Code-v1:一个大规模的精选代码数据集,源自GitHub,并通过多阶段去重、许可证执行和启发式质量检查进行过滤。它还包括11种编程语言的LLM生成的代码问答对。
Nemotron-Pretraining-SFT-v1:一个综合生成的数据集,涵盖STEM、学术、推理和多语言领域。该数据集整合了多元化的高质量内容,包括从数学与科学核心题库提取的复杂多选题和分析题、研究生阶段的专业学术文献,以及经过指令微调的SFT数据。
Nemotron-Pretraining-Dataset-sample:该数据集的一个小型抽样版本提供了10个具有代表性的数据子集,涵盖了高质量问答数据、数学专项内容、代码元数据以及SFT指令数据。
那些数字看起来都吓人,数零都得数半天(目移)。
顺带一提,最近英伟达的开源势头可以说是很猛了。
相比于其他国外科技巨头陆续走向的闭源道路,英伟达构建的Nemotron生态直接把开源二字写在了门面上。
无论是前段时间发布的LlamaNemotronSuperv1.5,还是这次的NemotronNanov2,对标的也是国内开源模型Qwen3。
这样的策略会给他们带来什么?又会改变些什么?我们拭目以待。
论文:
https://research.nvidia.com/labs/adlr/files/NVIDIA-Nemotron-Nano-2-Technical-Report.pdf
模型:
https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6e6ead8e77dd641615
试用:
https://build.nvidia.com/nvidia/nvidia-nemotron-nano-9b-v2
本文来自微信公众号:量子位(ID:QbitAI),作者:不圆,原标题《英伟达开源9B参数小模型,比Qwen3快6倍》
最新发现
相关资讯
英伟达开源9B参数AI小模型NemotronNanov2,比Qwen3快6倍
在麻省理工学院衍生公司LiquidAI发布了一款小到可以装在智能手表上的新AI视觉模型,以及谷歌发布了一款可以在智能手机上运行的小型模型之后,英伟达也加入了这场浪潮,推出了自己的新型小型语言
2025-08-22 09:06:33
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
大模型“世子之争”,果然暗潮汹涌(doge)。这不“手机内存不够”怎么办,如果你问问DeepSeek老师:你和豆包删一个你删谁?DeepSeek深度思考后回答得
2025-08-21 15:59:12
OpenAICEO奥尔特曼:GPT-6将更快到来,会更懂用户
OpenAICEO奥尔特曼透露,GPT-6将比预期更快推出,具备更强的个性化能力,能根据用户偏好调整响应。未来版本还将符合意识形态中立要求,并可能增加加密功能以保护隐私。AI技术GPT6
2025-08-21 15:59:07
微软最新揭秘:“话痨实习生”AI助手,到底能帮人类做什么?
与AI提供的劣质服务共存
2025-08-21 15:58:58
脉脉上AI岗位数暴涨29倍实习生日薪4000元
2025年,人工智能领域抢人大战呈现白热化,甚至已经延伸至实习生招聘市场。根据脉脉发布的相关岗位数统计,2025年2月,人工智能相关岗位数量同比增长10倍,成为关键转折点。2025年7月,人工智能
2025-08-21 15:58:55
现在读AI博士已经太晚了
谷歌生成式AI团队创始成员竟然劝退AI博士?JadTarifi,这位在谷歌待了近十年、参与创立了谷歌第一个生成式AI团队的大佬,最近直接开炮:别为了赶AI这波热潮去读博士了,等你毕业,AI本身都
2025-08-21 15:58:52
今日热榜
一年3次调价,连Salesforce都搞不定,AI定价到底难在哪?
2025-07-30 09:12:43鸿蒙版腾讯地图重磅升级:新增AI搜索、导航无缝流转打造高效出行新体验
2025-07-30 09:12:49“保守1000亿”,这个赛道正在批量制造90后富豪
2025-07-30 09:13:12WAIC UP!之夜:一场关于AI与人类未来的星空思辨
2025-07-31 09:08:13消息称微软与OpenAI正进行深入谈判:确保AGI时代技术合作
2025-07-31 09:08:16毕树超入职Meta后首发声:十年前怀疑AGI,如今深信AGI已至
2025-07-31 09:08:40优必选发布全尺寸通用轮式人形机器人CruzrS2:高1.76米重185kg,可搬运15kg重物
2025-08-13 09:10:51专家:AI时代,人类独有的特质都将迎来价值重估
2025-04-02 13:05:25AI如何改变传媒业?这场大会学界业界人士热议
2025-04-02 17:26:41广州互联网法院参加人工智能发展与侵权法国际论坛
2025-05-02 21:54:13热门推荐