4 月 25 日消息,科技媒體 marktechpost 今天(4 月 25 日)發(fā)布博文,報道稱英偉達專為數(shù)學推理設計,發(fā)布 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款先進 AI 模型。
數(shù)學推理一直是 AI 領域的巨大挑戰(zhàn)。傳統(tǒng)的語言模型擅長生成流暢文本,卻在解決復雜數(shù)學問題時顯得力不從心,這些問題不僅需要理解抽象概念,還要求多步驟的邏輯推導。
援引博文介紹,英偉達針對這一難題,推出了 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款模型,基于 Qwen 系列 transformer 模型,通過在 OpenMathReasoning 數(shù)據(jù)集上的深度微調(diào),顯著提升了數(shù)學推理能力。
OpenMath-Nemotron-32B 是系列中的旗艦產(chǎn)品,擁有 328 億參數(shù),采用 BF16 張量運算優(yōu)化硬件效率。該模型在 AIME 2024、AIME 2025、HMMT 2024-25 等多項基準測試中取得領先成績。
以工具集成推理(TIR)模式為例,其在 AIME24 上的 pass@1 準確率達到 78.4%,通過多數(shù)投票機制更是提升至 93.3%。

此外,模型支持鏈式思維(CoT)、工具集成推理(TIR)和生成式選擇(GenSelect)三種模式,用戶可根據(jù)需求平衡推理透明度和答案精確度,滿足科研和生產(chǎn)環(huán)境的不同場景。
OpenMath-Nemotron-14B-Kaggle 是一款 148 億參數(shù)的輕量模型,針對 AIMO-2 Kaggle 競賽優(yōu)化設計,通過精選 OpenMathReasoning 數(shù)據(jù)集子集進行微調(diào),成功奪得競賽第一名。
在 AIME24 測試中,其 CoT 模式下 pass@1 準確率為 73.7%,GenSelect 模式下提升至 86.7%。這款模型參數(shù)更少,保持高質(zhì)量的數(shù)學解題能力的同時,適合資源受限或低延遲需求的場景。
英偉達為兩款模型提供了開源管道,集成于 NeMo-Skills 框架中,支持數(shù)據(jù)生成、訓練和評估的全流程復現(xiàn)。開發(fā)者可通過示例代碼快速構建應用,獲取逐步解答或簡潔答案。
模型針對 NVIDIA GPU(如 Ampere 和 Hopper 架構)深度優(yōu)化,利用 CUDA 庫和 TensorRT 技術,確保高效運行。同時,采用 Triton Inference Server 支持低延遲、高吞吐量的部署,BF16 格式則在內(nèi)存占用與性能間取得平衡,助力大規(guī)模應用落地。
本文鏈接:http://www.rrqrq.com/showinfo-45-12649-0.htmlAI 數(shù)學推理新王:英偉達發(fā)布兩款 OpenMath-Nemotron 模型,刷新 AIME 準確率紀錄
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:[email protected]