login
国产计算卡FP8精度进展调研
2025/06/24·StepFun can make mistakes, check important info.
调研一下国产计算卡在fp8精度下的进展
Sources

我将为您调研国产计算卡在FP8精度下的进展情况。为了更好地满足您的需求,我想先了解几个关键点:

  1. 您是否特别关注某些国产GPU厂商(如摩尔线程、沐曦等)在FP8精度方面的进展,还是希望获得整体市场概况?

  2. 您更关注FP8在训练还是推理场景的应用进展?或者两者都需要?

  3. 您是否需要了解国产计算卡与国际产品(如NVIDIA)在FP8支持方面的对比分析?

摩尔线程、沐曦,寒武纪、华为、昆仑芯等国产厂商在FP8精度方面的进展: 1. 围绕其硬件层面,软件生态,应用落地,技术突破介绍 2. FP8在训练和推理场景的进展 3. 需要了解国产计算卡与国际产品(如NVIDIA)在FP8支持方面的对比分析

好的,收到您的调研任务。

为了系统性地完成“国产计算卡在FP8精度下的进展”这一研究,我为您制定了以下分步骤的总体计划。该计划旨在确保最终产出的研究报告结构清晰、内容详实、论证有力,并包含必要的图文对比。

Research plan

第一阶段:背景与基准研究 (15%)

  1. FP8技术解析:首先,将系统性地研究并阐述FP8(8位浮点数)精度的技术原理、两种主要格式(E4M3和E5M2)的特点,及其在AI大模型训练和推理中相较于FP16、BF16等其他精度的核心优势(如性能提升、显存优化)。
  2. 国际标杆分析:深入研究行业领导者NVIDIA在FP8技术上的布局,包括其Hopper和Ada Lovelace架构对FP8的原生硬件支持、Transformer Engine和TensorRT-LLM等软件工具链的优化策略,以及其生态系统的成熟度。这将为后续的国产计算卡对比分析建立一个清晰的参照基准。

第二阶段:国产计算卡FP8进展深度调研 (50%)

此阶段将聚焦于您指定的几家核心国产厂商,对每一家进行独立且深入的分析。

  1. 逐一厂商剖析
    • 摩尔线程 (Moore Threads)
    • 沐曦 (Muxi)
    • 寒武纪 (Cambricon)
    • 华为昇腾 (Huawei Ascend)
    • 昆仑芯 (Kunlunxin)
  2. 统一维度分析:对上述每家厂商,将从以下四个关键维度搜集和整理信息:
    • 硬件层面:调查其最新的计算卡产品是否在物理层面原生支持FP8计算单元。
    • 软件生态:研究其软件栈(如驱动、编译器、计算库)对FP8的支持程度,特别是与主流AI框架(如PyTorch, TensorFlow)的集成情况,以及是否支持或兼容像“赤兔(Chitu)”这样的第三方推理引擎。
    • 应用落地:搜寻已公开的商业案例、合作伙伴或性能测试报告,了解其FP8方案在实际训练和推理场景中的表现和应用情况。
    • 技术突破:关注各厂商发布的技术白皮书、官方声明或新闻稿,提炼其在FP8领域实现的关键技术创新或里程碑事件。

第三阶段:综合对比与趋势分析 (25%)

  1. 横向对比分析:将所有调研的国产厂商与国际标杆(NVIDIA)进行多维度对比。通过创建对比表格或图表,直观展示各方在FP8硬件支持、软件生态成熟度、性能表现及市场应用等方面的异同点。
  2. “赤兔”引擎专题分析:鉴于“赤兔”推理引擎在打通国产芯片FP8支持上的关键作用,将专门分析其技术原理、开源生态影响力,以及它如何帮助不同硬件“无损”运行FP8模型,加速国产算力生态的构建。
  3. 总结与展望:综合所有信息,总结国产计算卡在FP8精度支持上的整体现状、面临的主要挑战(如生态完善度、性能追赶等),并对未来的发展趋势做出预判。

第四阶段:报告撰写与可视化 (10%)

  1. 构建报告框架:按照“背景介绍 → 国际基准 → 国产厂商深度分析 → 综合对比 → 总结展望”的逻辑顺序,搭建报告的整体结构。
  2. 内容填充与图表生成:将前三阶段搜集和分析的信息填充至报告框架中,并利用可视化工具生成关键的对比图表(如各厂商FP8特性对比表、性能数据图等),使报告图文并茂,更具可读性。

核心信息来源参考:

  • 官方网站:各芯片厂商(NVIDIA, 摩尔线程, 华为昇腾等)的官方网站,获取最权威的产品规格、白皮书和新闻稿。
  • 学术与研究机构:清华大学官网及相关发布平台,获取关于“赤兔”引擎的一手信息。
  • 权威科技媒体与技术社区:如新华网、凤凰网科技、搜狐科技、CSDN、知乎专栏等,获取行业新闻、技术解读和深度分析。
  • 行业报告与开发者社区:关注相关行业分析报告和GitHub等开发者社区,了解技术动态和生态发展。
开始研究

Deep Research

首先,让我们开始搜索相关信息,了解FP8精度的基本概念和国产计算卡在这方面的进展。

搜索

Search

FP8精度 8位浮点数 AI训练 推理 优势
developer.nvidia.com
developer.nvidia.com
并且在相同的硬件条件下,FP8 的 Tensor Core 可以在相同时间内进行更多次的浮点运算,加快训练和推理的速度。模型优化:FP8 的使用促使模型在训练和推理过程中进行量化,这有助于模型的优化和压缩,进一步降低部署成本。与INT8 的数值表示相比较,FP8 在 LLM 的训练和推理更有优势...
雪球
雪球
零一万物的双语 LLM 模型 FP8 端到端训练与推理的卓越表现 NVIDIA Inflection AI 是一家专注于 AI 技术创新的公司,他们的使命是创造人人可用的 AI,所以他们深知大模型的训练对于 AI 生成内容的精准性和可控性至关重要。因此,在他们推出的 Inflection-2 模型中,采用了 FP8 技术对其模型进行训练
CSDN技术社区
CSDN技术社区
[10]的重点是使用各种格式(包括 FP8)对使用更高精度训练的网络进行 8 位推理。本文描述了一种用于浮点表示的 8 位二进制格式,使用两种 FP8 编码。第 2 节总结了使用 FP8 进行深度学习的基本原则。第 3 节描述了比特编码及其背后的原理。第 4 节展示了对各种任务和模型的训练和推理的实证评估。我们展示了 FP8 训练...
东方财富网
东方财富网
Nvidia推出了其 GH100,这是第一款基于全新“Hopper”架构的 GPU,它同时针对 HPC 和 AI 工作负载,重要的是后者支持 8 位 FP8 浮点处理格式。两个月后,竞争对手英特尔推出
CSDN技术社区
CSDN技术社区
对于一些推理任务或已经接近最终结果的训练阶段,FP8依然能提供足够的效果。因此,使用FP8可以 在不明显影响最终结果的情况下,显著提升训练速度和节省资源。3.对比FP32/FP16: FP32(32位浮点数)是目前训练中最常见的格式,它的优点是精度高,但缺点是内存消耗大,计算也比较慢。FP16(...
雪球
雪球
1.提升AI计算效率低精度计算的优势:FP8是一种低精度浮点格式,相比传统的FP16(半精度)或FP32(单精度),其数据位宽更小,能够在单位时间内处理更多数据。这对于大规模AI模型训练和推理(尤其是Transformer类模型)至关重要。降低内存占用:FP8的数据体积更小,可...
CSDN技术社区
CSDN技术社区
在性能层面,由于FP8的数据宽度更小,显著减少了显存的占用,降低了通讯带宽的需求,从而大幅提高了GPU内存读写的吞吐效率。在相同的硬件条件下,支持FP8的Tensor Core可以在相同时间内执行更多次的浮点运算,极大地加速了 模型 的训练和推理速度。在 模型优化 方面,FP8的采用促使模型在训练和推理过程中进行量化,这不仅有助于模型的优化和压缩,进一步降低了部署成...
知乎
知乎
采用FP8(8-Bit Floating Point)数据格式在训练和推理中能够提升计算效率,但该格式因精度问题在训练中被采用的场景不多。例如,Google公司的Gemma模型、Inflection
https://static-favicon.basemind.com/01JVCF7RYM8HSHJN6VE2DZAG0V
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
View all 16 sources

感谢您提供的调研任务。我将系统性地研究国产计算卡在FP8精度下的进展情况。首先,让我了解更多关于FP8精度的基本信息,以及国产计算卡厂商在这方面的进展。

搜索

Search

国产计算卡 FP8精度 摩尔线程 沐曦 寒武纪 华为昇腾 昆仑芯
今日头条
今日头条
华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、太初元碁、云天励飞、燧原科技、昆仑芯、灵汐科技、鲲云科技、希姆计算、算能、清微智能、芯动力。相关意义及影响 技术层面:有助于国产AI芯片针对大模型需求进行技术优化,如促使厂商加大在低精度计算方面的研发投入,提升FP8及其他低精度计算的性能和稳定性,同时优化芯片架构,增加对稀疏数据的处理能力,提...
CSDN技术社区
CSDN技术社区
国产算力—沐曦GPU性能及应用 沐曦集成电路(上海)有限公司(简称“沐曦”)成立于2020年9月,专注于为异构计算提供全栈GPU芯片及解决方案,满足数据中心对“高性能”、“高能效”及“高通用性”的算力需求。产品系列 沐曦构建了全栈高性能GPU芯片产品,包括: MXN系列GPU(曦思):用于AI推理,为人工智能应用提供强大的算力支持。MXC系列GPU(曦云): 性能特...
集微网
集微网
摩尔线程基于新一代 MUSA Compute Capability 3.1 计算架构的全功能 GPU 原生支持 FP8 计算,这为 Torch-MUSA v2.0.0 实现 FP8 矩阵乘法和分布式通信优化提供了坚实的基础。依托这一底层架构优势,Torch-MUSA v2.0.0 能够充分发挥 FP8 的计算效能,显著提升大语言模型训练和推理的效率。三大关键优化,提升AI计算效率 T...
icsmart.cn
显然,此举无疑将会影响到包括沐曦、燧原科技、壁仞科技、摩尔线程等众多国产AI/GPU芯片厂商的芯片的制造,未来只能依靠国内的芯片代工和先进封装产能。但是在国产先进半导体设备尚未获得大突破的背景下,目前国产先进制程产能相当有限,特别是还有华为、海光这样有背景的能够锁定国产先进制程产能的“AI大厂”存在,对于沐曦等众多的初创AI/GPU厂商来说,产能的获取将成为一大难题...
IT之家
IT之家
摩尔线程基于新一代 MUSA Compute Capability 3.1 计算架构的全功能 GPU 原生支持 FP8 计算,这为 Torch-MUSA v2.0.0 实现 FP8 矩阵乘法和分布式通信优化提供了基础。依托这一底层架构优势,Torch-MUSA v2.0.0 能够充分发挥 FP8 的计算效能,提升大语言模型训练和推理的效率。Torch-MUSA v2.0.0 在 MUSA 计算...
澎湃新闻
澎湃新闻
其中海光信息是科创板CPU+GPU上市公司,云天励飞是科创板AI上市公司,昆仑芯科技是百度旗下AI芯片公司,燧原科技、壁仞科技、摩尔线程、沐曦这4家AI芯片独角兽均已启动IPO进程。云计算与智算企业也积极行动。华为云、天翼云、腾讯云、阿里云、百度智能云、火山引擎、京东云、联通云、移动云等9家国内云计算巨头,无问芯穹、硅基流动、云轴科技ZStack、PPIO派欧云、超算互联网、青云科技、算力互联、并济科技、优刻得、神州数...
腾讯
腾讯
以摩尔线程为例,目前摩尔线程已经率先支持包括FP8 在内的混合精度模型训练。摩尔线程全功能GPU,原生支持FP8 数据精度,支持MTLink 高速互联技术 ...
上海东方财富证券投资咨询有限公司
上海东方财富证券投资咨询有限公司
华为昇腾计算产业全景. 25. Page 26. 2.8 寒武纪|思元590性能大幅提升 ... 沐曦国产GPU卡近万张,覆盖. 医疗、教育、制造等十余个核心行业。根据新浪 ...
https://static-favicon.basemind.com/01JV1X5P0NTRZVDGR3RM7Q1Q6E
https://static-favicon.basemind.com/01JV61ER952YHPBQWAQYRD15C7
https://static-favicon.basemind.com/01JV1WX7J6GHF5CNXHJ921GCH8
View all 14 sources

现在我需要更具体地了解国产计算卡对FP8精度的支持情况,特别是摩尔线程的最新进展,因为从之前的搜索结果中看到摩尔线程已经宣布支持原生FP8。

搜索

Search

摩尔线程 FP8 原生支持 Torch-MUSA v2.0.0
网易
网易
摩尔线程基于新一代MUSA Compute Capability 3.1计算架构的全功能GPU原生支持FP8计算,为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化提供了基础。依托这一底层架构优势,Torch-MUSA v2.0.0能够充分发挥FP8的计算效...
搜狐网
搜狐网
在当前深度学习技术快速发展的背景下,摩尔线程于2025年5月9日正式发布了 Torch-MUSA v2.0.0 版本。这一版本不仅支持 原生FP8 数据类型,还与 PyTorch 2.5.0 深度整合,展示了其在AI计算领域的重要性与技术革新。这一更新标志着摩尔线程在国产GPU生态系统中进一步巩固了其技术优势,尤其是在大规模数据处理和AI模型训练方面。摩尔线...
搜狐网
搜狐网
摩尔线程的全功能GPU,凭借新一代MUSA Compute Capability 3.1计算架构,原生支持FP8计算。这一底层架构的优势为Torch-MUSA v2.0.0提供了坚实的基础,使其能够充分发挥FP8的计算效能,在大语言模型的训练和推理中展现出更高的效率。除了对FP8的支持外,Torch-MU...
搜狐网
搜狐网
摩尔线程的新一代MUSA Compute Capability 3.1计算架构全功能GPU原生支持FP8计算,这为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化提供了坚实的基础。借助这一底层架构的优势,Torch-MUSA v2.0.0能够充分发挥FP8的...
PHP中文网
PHP中文网
摩尔线程基于新一代MUSA Compute Capability 3.1计算架构的全功能GPU原生支持FP8计算,这为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化奠定了坚实基础。凭借这一底层架构优势,Torch-MUSA v2.0.0能够充分发挥FP8的...
太平洋电脑网
太平洋电脑网
摩尔线程基于新一代MUSA Compute Capability 3.1计算架构的全功能GPU原生支持FP8计算,为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化提供了基础。依托这一底层架构优势,Torch-MUSA v2.0.0能够充分发挥FP8的计算效...
网易
网易
摩尔线程基于新一代 MUSA Compute Capability 3.1 计算架构的全功能 GPU 原生支持 FP8 计算,这为 Torch-MUSA v2.0.0 实现 FP8 矩阵乘法和分布式通信优化提供了基础。依托这一底层架构优势,Torch-MUSA v2.0.
新浪财经_手机新浪网
新浪财经_手机新浪网
摩尔线程基于新一代MUSA Compute Capability 3.1计算架构的全功能GPU原生支持FP8计算,为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化提供了基础。依托这一底层架构优势,Torch-MUSA v2.0.0能够充分发挥FP8的计算效...
https://static-favicon.basemind.com/01JV1Q6W4G2H790B6KKGJBPQZS
https://static-favicon.basemind.com/01JV1NNMEQN7J06E73ETTRGRTX
https://static-favicon.basemind.com/01JV2ED5TZ6VST94EMASBPVPTP
View all 16 sources

现在我需要了解更多关于华为昇腾、寒武纪等其他国产计算卡对FP8精度的支持情况。

搜索

Search

华为昇腾 寒武纪 昆仑芯 FP8精度 支持情况
CSDN技术社区
CSDN技术社区
数值精度对比表:FP32、FP16、BF16、FP8、INT8 全面解析 为直观呈现不同精度格式的特性差异,我们梳理了以下核心参数对比表: 参数 FP32 FP16 BF16 FP8(E4M3) INT8 总位数 32 位 16 位 16 位 8 位 8 位 内存占用 4 字节 2 字节 2 字节 1 字节 1 字节 符号位 1 位 1 位 1 位 1 位 1 位(...
观察者
观察者
其中,华为在降低计算资源需求方面,创新提出了昇腾亲和的低比特量化解决方案OptiQuant,最终实现了INT8量化模式与FP8的模型推理精度持平。由于DeepSeek V3/R1模型是基于英伟达生态训练,并推荐使用FP8精度推理,而国产芯片普遍没有原生支持FP8精度,导致国产芯片对DeepSeek的适配不佳。华为昇腾的上述研究应该就是为了解决这一问题。通常情况下,在...
CSDN技术社区
CSDN技术社区
2.3 在华为昇腾平台上部署 权重转换:将FP8模型权重转换为BF16精度,适用于昇腾硬件平台: python fp8_cast_bf16.py-input-fp8-hf-path/path/to/DeepSeek-V3-output-bf16-hf-path/path/to/deepseek-v3-bf16 镜像加载与容器启动:下载并加载适配DeepSeek-V3的MindIE镜像,启动容器并部署模...
网易
网易
华为早期发布的昇腾910,其实应该算是 910A。当时,因为华为还没有被完全禁售,所以910A仍然采用了台积电的7nm增强版EUV工艺。芯片内建了32颗达芬奇Max核心(达芬奇核心分为Max/Lite/Tiny三种,Max最完整),支持混合精度计算(FP16/FP32/INT8),FP16算力为256TFOPs,最大功耗350W(一开始说是350W,后来变成了310...
微博
微博
(1)华为Atlas 300T训练卡(型号9000)基于昇腾910 AI芯片,单卡算力280TFLOPS FP16;(2)寒武纪思元370单卡算力256TOPS INT8,是第二代产品思元270算力的2倍;(3)百度昆仑芯2代AI芯片单卡算力为256TOPS INT8/128TFLOPS FP16;(4)海光DCU的优势则体现在生态兼容性,其ROCm GPU的计算生态和英伟达CUDA高度相似,被称为“...
今日头条
今日头条
昇腾910以256TFLOPs(FP16)的算力成为当时全球单芯片密度最高的AI训练芯片,其INT8精度算力(640TOPS)甚至超越同期英伟达V100的125TFLOPs水平。此后,华为持续推进技术迭代。2019年推出昇腾AI计算架构,覆盖训练、推理全场景;2023年,昇腾910B通过Chiplet技术实现14nm工艺量产,算力达256TFLOPs;2025年发布的昇腾920基于中...
搜狐网
搜狐网
1.1 华为昇腾310 Pro 架构特性: 基于自研达芬奇架构(DaVinci),专为AI推理优化,支持INT8/FP16混合精度计算;集成动态张量加速(DTA)技术,提升不规则计算效率;核心参数: 算力:16 TOPS(INT8),FP16算力4 TFLOPS;功耗:8W,内存带宽64GB/s,板载8GB LPDDR4X;典型场景:边缘计算、低功耗设备集成。1.2 英伟达GPU T4(Turing架构): 算力:8....
上海东方财富证券投资咨询有限公司
上海东方财富证券投资咨询有限公司
同时,包括昇腾、昆仑芯、寒武纪、飞腾、海光在内的国产芯片也都对. DeepSeek 进行了适配,加速了国产替代进程。下游的软件厂商也都快速接入了DeepSeek ...
https://static-favicon.basemind.com/01J7K2Q0GX3DSJ9AZV3H0MJTTP
https://static-favicon.basemind.com/01JV61ERQS4MBQE1S94DEN7QDG
https://static-favicon.basemind.com/01JV1MWRJHF4P3HX44MBNEKV3Q
View all 15 sources

已掌握的信息

  1. FP8技术与国际标杆:已明确FP8技术的两种主流格式(E4M3, E5M2)及其在AI计算中相较于FP16/BF16的核心优势(降低显存占用、提升计算吞吐量)。行业领导者NVIDIA通过其Hopper架构和Transformer Engine等软硬件生态,为FP8提供了原生的硬件支持和成熟的软件优化方案,构成了清晰的国际参照基准。

  2. 摩尔线程的突破:摩尔线程是国产厂商中在FP8支持上进展最明确的。其于2025年5月发布的Torch-MUSA v2.0.0,依托其MUSA Compute Capability 3.1新计算架构,已实现对FP8数据类型的原生硬件支持。这标志着国产GPU在硬件层面的一大突破,并通过开源其PyTorch扩展库来积极构建软件生态。

  3. 华为昇腾的策略:华为昇腾目前并未提供FP8的原生硬件支持。其策略是通过软件层面创新,推出了名为“OptiQuant”的量化框架。该框架旨在通过高性能的INT8量化方案,在昇腾硬件上实现与FP8相当的模型推理精度,这是一种通过软件优化来适配FP8生态的路径。

  4. 其他国产厂商的动态:沐曦、寒武纪、昆仑芯等厂商正积极适配以FP8为特色的DeepSeek等大模型,但目前公开信息未能明确其是否具备FP8原生硬件支持。其对FP8的适配更可能依赖于类似华为的软件量化方案或通用的第三方推理引擎。

  5. “赤兔”引擎的关键作用:清华大学研发的“赤兔”推理引擎被提及,它似乎扮演着一个关键的第三方软件角色,旨在帮助缺乏原生FP8硬件的国产芯片也能高效运行FP8模型,是构建国产算力生态的重要一环。

下一步行动计划
之前的行动计划已成功勾勒出市场格局,并识别出不同厂商的技术路径。下一步将延续该计划,深入挖掘细节并进行横向对比。

  1. 明确模糊地带: 针对沐曦、寒武纪、昆仑芯这三家厂商,需进一步深度调研,以最终确认其对FP8的支持是硬件原生还是软件模拟/量化。这将是区分各家技术路线和成熟度的关键。

    • 信息来源:重点查阅各公司官网的“产品”或“技术”白皮书、最新的新闻稿以及其官方开发者社区或技术博客。
  2. 专题研究“赤兔”引擎: 对“赤兔”推理引擎进行专项研究,探明其技术原理(如何实现对不同国产硬件的FP8“无损”支持)、已适配的国产芯片列表、以及其在实际应用中的性能表现。

    • 信息来源:清华大学相关实验室的官方网站、公开发表的学术论文(如arXiv)、以及GitHub等开源社区的项目主页和技术文档。
  3. 搜寻量化性能数据: 寻找并整理关于各国产计算卡在运行大模型(特别是DeepSeek)时的实际性能评测数据。重点关注在FP8或其等效精度(如华为的INT8量化方案)下的推理速度(FPS)、延迟、以及能效比等关键指标。

    • 信息来源:权威科技媒体的评测报告、芯片厂商发布的性能白皮书或官方博客文章、以及行业会议(如智源大会、WAIC等)的公开演讲材料。
  4. 构建综合对比框架: 基于以上信息,着手构建报告的核心图表——《国产计算卡FP8支持现状综合对比表》。该表将以NVIDIA为基准,从“硬件原生支持”、“软件生态路径”、“已公布性能数据”、“代表性应用案例”等维度,对摩尔线程、华为昇腾、沐曦、寒武纪、昆仑芯等厂商进行系统性、可视化的横向对比分析。

接下来,让我搜索更多关于"赤兔引擎"的信息,以及沐曦、寒武纪和昆仑芯对FP8的支持情况。

搜索

Search

清华大学 赤兔引擎 FP8 国产芯片 适配
tsinghua.edu.cn
tsinghua.edu.cn
“过去,如果采用国产芯片支持FP8模型,传统技术方案需将FP8模型提前转换为FP16或BF16格式才能运行,这将导致性能损失,而推理引擎‘赤兔’通过硬件适配优化,无需提前转换模型,即可实现‘无痛’‘无损’支持FP8数据类型。清华大学计算机系长聘教授翟季冬介绍。为突破这一瓶颈,我国人工智能基础设施企业清程极智与清华大学翟季冬教授团队联合攻关,自主创新...
tsinghua.edu.cn
tsinghua.edu.cn
为打破这一困境,清华大学与清程极智联合开源的赤兔推理引擎通过底层技术革新,首次实现了非H卡设备对原生FP8精度模型的高效部署,摆脱对特定硬件的依赖,极大降低了企业部署AI模型的门槛和成本。翟季冬介绍说,赤兔凝结了团队多年并行计算与编译优化技术的积累,目标是弥合先进模型与多样化硬件之间的差距,让国产算力真正“跑起来”。“赤兔的定位是成为连接多元算力与大模型应用的桥梁。清程极智CEO汤雄...
凤凰网
凤凰网
凤凰网科技讯 3月14日,凤凰网科技获悉,清华大学高性能计算研究所翟季冬教授团队与清华系科创企业清程极智联合宣布,开源大模型推理引擎“赤兔Chitu”,该引擎首次实现在非英伟达Hopper架构GPU及各类国产芯片上原生运行FP8精度模型,为国产AI芯片的广泛应用和生态建设带来了新的突破。DeepSeek的发展推动了FP8精度模型成...
搜狐网
搜狐网
在当前全球科技大力发展的背景下,尤其是在人工智能和芯片技术日新月异的时代,清华的这位团队抓住了机会,实现了在非英伟达Hopper架构GPU以及各种国产芯片上原生运行FP8精度模型的伟大成就,以此打破了以往对特定硬件的依赖限制。赤兔引擎的推出无疑为企业在部署AI模型方面削减了门槛和成本,助力AI技术的全面普及。翟季冬教授表示,赤兔引擎凝聚了其团队多年在并行计算和编译优化领域的深厚积累,旨在消除先进模型与...
搜狐网
搜狐网
这款引擎不仅是科技的集大成者,更是对国产芯片的一次华丽赋能,成功地在非英伟达Hopper架构GPU及众多国产芯片上实现FP8精度模型的原生运行,推理成本减半、性能翻倍!这款引擎的独特之处,首先在于其强大的多元算力适配能力。无论您是与NVIDIA的最新旗舰产品为伴,还是依赖于旧款的多系列产品,甚至是国产芯片,赤兔引擎都能为您提供贴心的优化支持,确保广泛的兼容性。其次,...
搜狐网
搜狐网
今天,清华系科创企业 清程极智 与 清华大学翟季冬教授团队 联合宣布 开源大模型推理引擎「赤兔」(Chitu),率先实现了 非 H 卡设备(英伟达 Hopper 架构之前的 GPU 卡及各类国产卡)运行原生 FP8 模型的突破。在 A800 集群上的实测数据显示,用赤兔引擎部署 DeepSeek-671B 满血版推理服务,相比于 vLLM 部署方案,不仅 使用的 GPU 数量减少了 ...
搜狐网
搜狐网
在这样的背景下,清华和清程极智联合开发的“赤兔”引擎应运而生。从底层技术上进行革新,赤兔引擎令非H卡设备(包含多个国产芯片)也能高效地部署FP8模型,企业的AI模型部署门槛和成本因而大幅下降。翟季冬教授强调,该项目凝聚了团队在并行计算与编译优化方面的多年积累,目的是为了弥合先进模型与多样化硬件之间的差距,让国产算力真正运转起来,助推中国大模型产业的发展。赤兔引擎在性...
新浪财经
新浪财经
新浪科技讯 3月14日下午消息,清华大学高性能计算研究所翟季冬教授团队与清华系创企清程极智联合宣布,大模型推理引擎“赤兔Chitu”正式开源。据悉,该引擎实现在非英伟达Hopper架构GPU及各类国产
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
https://static-favicon.basemind.com/01JV333B1SWBZH9WG4BHX4AZPY
https://static-favicon.basemind.com/01JV1Q6W4G2H790B6KKGJBPQZS
View all 16 sources

现在让我搜索沐曦、寒武纪和昆仑芯对FP8的支持情况,以获取更具体的信息。

搜索

Search

沐曦 寒武纪 昆仑芯 FP8精度 支持情况 最新进展
凤凰网
凤凰网
DeepSeek的发展推动了FP8精度模型成为行业主流,随着DeepSeek的持续火热,企业大模型私有化部署的需求也呈现井喷态势。然而,当前全球领先的FP8模型长期依赖英伟达H系列高端GPU,这使得国内企业在部署大模型时受限于AI芯片的限制。一方面,英伟达H系列芯片的进口受限,导致国内企业难以获取高性能硬件支持;另一方面,大多数国产芯片因不支持FP8数据类型,无法充分发挥新一代AI模型的性能,企业部署成本高昂。为打破这一困境,清华大学与...
微博
微博
专家不看好百度昆仑芯和寒武纪的架构,但昆仑芯依靠百度的算法输入更易于量产落地,其他 GPGPU厂商中相对看好壁仞、沐曦,两者走兼容路线能部分解决生态问题。【PCB华为】华为AI服务器的PCB供应商主要包括深南(占比估测达到50%)、景旺、鹏鼎等。上游CCL供应商中,估测台光占比70%,生益占比30%。【苹果铰链】安费诺作为苹果折叠屏手机铰链主要供应商,预计将占据80%及以上的供应份额。除安费诺外,潜在的供应商包括通达、新日兴以及科森和富...
雪球
雪球
国产AI算力:国产AI算力本质也是GPU/NPU芯片,GPU的公司 寒武纪、沐曦、昆仑芯、平头哥、燧原科技、壁仞科技、摩尔线程等。NPU的公司华为昇腾。这些公司的大股东,寒武纪:中科院。沐曦:上海国资。昆仑芯:百度。平头哥:阿里。燧原科技:腾讯。壁仞科技:上海国资。摩尔线程.
今日头条
今日头条
华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、太初元碁、云天励飞、燧原科技、昆仑芯、灵汐科技、鲲云科技、希姆计算、算能、清微智能、芯动力。相关意义及影响 技术层面:有助于国产AI芯片针对大模型需求进行技术优化,如促使厂商加大在低精度计算方面的研发投入,提升FP8及其他低精度计算的性能和稳定性,同时优化芯片架构,增加对稀疏数据的处理能力,提升并行计算单元的性能和灵活性。产业层面:DeepSee...
搜狐网
搜狐网
寒武纪作为国内芯片领域的重要参与者,其适配情况备受期待。此次热潮中,适配DeepSeek的大致列表包含了华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、太初元碁、云天励飞、燧原科技、昆仑芯以及龙芯中科等公司。这些企业的适配举措不仅展示了它们在AI芯片技术上的实力,更体现了国产技术在全球拐点面前的团结与合作。DeepSeek大模型的推出,标志着AI领域又一技术的突破。作为一个大型模型,DeepSeek具备更强的数...
腾讯
腾讯
摘要:6月9日消息,国产GPU厂商沐曦集成电路(以下简称“沐曦”)通过官方微信宣布,在6月7日于北京召开的第16届安博会上,沐曦(MetaX)展出了其首款AI推理GPU加速卡—曦思N100及解决方案在安防领域的应用。6月9日消息,国产GPU厂商沐曦集成电路(以下简称“沐曦”)通过官方微信宣布,在6
上海东方财富证券投资咨询有限公司
上海东方财富证券投资咨询有限公司
DeepSeek-V3采用MLA和MoE架构,支持使用FP8混合精度训. 练,引入了一 ... 寒武纪近年业绩情况(亿元). 性能参数. MLU370-S4/S8. MLU370-X4/X8. 制程 ...
新浪财经
新浪财经
目前,华为、寒武纪、摩尔线程以及昆仑芯都有公开信息表示其完成满血版DeepSeek模型的适配。 “即便是现在已经宣布适配满血版DeepSeek的芯片公司,其 ...
https://static-favicon.basemind.com/01JV61ER952YHPBQWAQYRD15C7
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
https://static-favicon.basemind.com/01JV1X5P0NTRZVDGR3RM7Q1Q6E
View all 14 sources

让我继续搜索更多关于昆仑芯对FP8支持的信息。

搜索

Search

昆仑芯 FP8 支持 百度 昆仑芯3 最新进展
腾讯
腾讯
早在2018年,百度就发布了昆仑芯1代,随后在2021年推出了昆仑芯2代,到现在昆仑芯3代也即将实现量产。从这也能看出,百度想要转型AI科技公司的决心。近几年,百度在自动驾驶领域动作频繁,不仅发布了Apollo“汽车机器人”,而且还推出了无人车出行服务平台“萝卜快跑”。在这一切的背后,AI芯片的重要性不言而喻,这也是百度为什么会长期坚持做芯片的原因。当然,芯片的商业价值并不是短短几年...
电子发烧友
电子发烧友
01百度智能云点亮昆仑芯三代万卡集群 近日,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。百度智能云将进一步点亮3万卡集群。自研芯片和万卡集群的建成带来了强大的算力支持,同时有效提升了百度和客户的资源整体利用率,降低大模型训练成本,推动了模型降本的趋势,为整个行业提供了新的思路和方向。02百度智能云宣布上线DeepSeek-R1/V3 ...
中国科技网
中国科技网
近日,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群,这一重要突破标志着百度在人工智能算力领域迈出了坚实的一步。百度智能云将进一步点亮3万卡集群。过去一年,整个行业都在努力降低大模型的使用成本,而算力紧张是导致成本居高不下的重要因素之一。百度方面表示,百度通过自研芯片和大规模集群的建设,不仅解决了自身算力供应的问题,还为整个行业提供了新的思路和方向。从算力上看,超大规模并行...
电子发烧友
电子发烧友
描述 近日,百度智能云宣布了一项重大技术突破:成功点亮了国内首个自研的昆仑芯三代万卡集群。这一里程碑式的成就标志着百度在AI芯片领域取得了显著进展。据了解,本次点亮的昆仑芯三代万卡集群采用了昆仑芯P800。尽管昆仑芯科技官方尚未公布该芯片的具体参数,但从百度智能云的这一举措中,我们不难看出昆仑芯P800的强大性能和潜力。百度智能云...
搜狐网
搜狐网
近日,百度智能云宣布了一项重大技术突破:国内首个自主研发的万卡集群—昆仑芯三代P800已成功点亮。这一里程碑式的成就标志着我国在高性能计算领域取得了又一显著进展。据悉,昆仑芯三代P800万卡集群在硬件扩展性方面实现了重大突破,得益于创新的散热方案,以及针对模型分布式训练的深度优化,该集群在计算性能和效率上均表现出色。尤为该集群还引入了先进的容错和稳定性机制,确保有效训练率高达98%,为大规模AI模型训练提供了坚实保障。在解决机间通信带宽...
kunlunxin.com
kunlunxin.com
通过硬件架构创新,昆仑芯超节点突破传统单机8卡产品形态,超高密度设计使得单柜可容纳32/64张昆仑芯AI加速卡。单柜内卡间实现全互联通信,带宽提升高达8倍, ...
观察者
观察者
昆仑芯超节点支持把64张昆仑芯AI加速卡放到同一个机柜,实现单节点的超强性能,一个机柜就能顶过去100台机器。与以往的方案相比,昆仑芯超节点用更快的机内 ...
百度
百度
近日,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。百度智能云将进一步点亮3万卡集群。 国产昆仑芯万卡集群以及未来 ...
https://static-favicon.basemind.com/01JV4C8WXY4HRS657F22940FC7
https://static-favicon.basemind.com/01JV1Q6W4RGQRA2TB66837NPTS
https://static-favicon.basemind.com/01JVBJNPVR27V2ARC3XNDETAMZ
View all 13 sources

现在我需要查找更多关于寒武纪对FP8支持的信息。

搜索

Search

寒武纪 FP8精度 支持情况 思元590 MLU370
寒武纪
寒武纪 ®️ AIDC ®️ MLU370 ®️-S4/S8加速卡采用思元370芯片,TSMC 7nm制程,寒武纪新一代人工智能芯片架构MLUarch03加持,支持PCIe Gen4,板卡功耗仅为75W,相较于同尺寸GPU,可提供3倍的解码能力和1.5倍的编码能力。MLU370-S4/S8加速卡的能效出色,体积小巧,可在服务器中实现高密度部署。产品规格 板卡型号 MLU370-S4/...
知乎
知乎
先上一些重点参数:寒武纪的这款芯片采用双芯片四芯粒(4张加速卡为一组的8颗思元370芯片全互联)、7nm工艺、支持FP32、FP16、BF16、INT16、INT8、INT4多种计算精度、可提供24T
电子发烧友
电子发烧友
寒武纪®️ AIDC®️ MLU370 ®️-X8采用双芯思元370配置,为双槽位250w全尺寸智能加速卡,提供24 TF LPOS(FP32)训练算力和256TOPS(INT8)推理算力,同时提供丰富的FP16、BF16等多种训练精度。基于双芯思元370打造的MLU370-X8整合了两倍于标准思元370加速卡的内存、编解码资源,同时MLU...
CSDN技术社区
CSDN技术社区
寒武纪发布的MLU370-X8采用双芯思元370配置,每张卡包含两颗芯片,每颗芯片内封装两个Die,从而提供两倍于思元370加速卡的内存、编解码资源。MLU370-X8在FP32、FP16、BF16、INT16、INT8、INT4等数据格式计算上均有出色的表现,峰值性能分别为32TFlops、96TFlops、96TFlops、128Tops、256Tops、512Tops。该卡采用...
知乎
知乎
寒武纪基于思元370智能芯片的技术,通过Chiplet(芯粒)技术,灵活组合产品的特性,适配出符合不同场景需求的三款加速卡,在同样的研发费用之下,满足了更多元的市场需求。 (1)MLU370-S4为
腾讯
腾讯
寒武纪为多卡系统专门设计了MLU-Link桥接卡,可实现4张加速卡为一组的8颗思元370芯片全互联,每张加速卡可获得200GB/s的通讯吞吐性能,带宽为PCIe 4.0 的3.1倍,可高效执行多芯多卡训练和分布式推理任务。资料显示,Cambricon NeuWare支持FP32、FP16混合精度、BF16混合精度和自适应精度训练等多种训练方式并提供灵活高效的训练工具...
微博
微博
思元 590 芯片完成 R2 框架适配,算力密度提升 40%,支持 FP8 低精度计算,2025 年订单能见度超 50 亿元。其 MLU370-X8 芯片在杭钢液冷系统中实测功耗降低 25%,适配 R2 的高效能需求。政策催化:国产芯片替代政策加速,寒武纪入选“国家队”供应链,市场份额有望快速扩张。2.中际旭创 全球光模块龙头,800G 光模块批量供应北美算力节点,同时深度参与 DeepSeek 国产...
今日头条
今日头条
寒武纪思元590作为首款7nm云端训练芯片,其实测性能达到英伟达A100的82%^1^5,在特定任务(如图像分类、自然语言处理)时甚至能够接近A100的90%^2。其MLUarch05架构支持多精度计算,内存带宽与互联接口较之前代有大幅提升^2。不过,在集群互联性能(如千卡互联效率)和软件生态(如开发者工具链)方面依旧落后于英伟达。2.订单驱动与国产替代加速 倘若百度、阿里云总计20万片的订单属实(注:搜索结果未直接提及该数据,但网页6显示寒武纪...
https://static-favicon.basemind.com/01JV61ERQS4MBQE1S94DEN7QDG
https://static-favicon.basemind.com/01JV1Q6W4RGQRA2TB66837NPTS
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
View all 15 sources

已掌握的信息

  1. 技术路径分化明确:国产计算卡在FP8精度支持上已呈现出两种清晰的技术路径。第一种是以摩尔线程为代表的**“硬件原生支持”路径,其新一代MUSA架构(Compute Capability 3.1)已在物理层面集成了FP8计算单元,并通过其开源的Torch-MUSA v2.0.0软件栈提供支持。第二种是以华为昇腾为代表的“软件优化适配”**路径,其通过创新的“OptiQuant”量化框架,在现有硬件上以高性能INT8量化技术来模拟和达到FP8级别的推理精度。

  2. 主流厂商现状基本清晰:除摩尔线程和华为外,其他主要厂商如沐曦、寒武纪、昆仑芯,从其现有产品(如沐曦曦思N100、寒武纪MLU370系列)的公开规格看,均未明确提供FP8原生硬件支持。它们目前主要通过积极适配DeepSeek等FP8模型,依赖软件层面的解决方案来追赶生态。其中,寒武纪的下一代芯片“思元590”有非官方信息称其支持FP8,但这与官方产品文档存在矛盾,是目前的一个信息模糊点。

  3. 第三方软件生态作用关键:由清华大学团队联合研发并开源的**“赤兔(Chitu)”推理引擎**扮演着至关重要的角色。它通过底层算子和编译优化,使缺乏原生FP8硬件的国产芯片(以及英伟达旧款GPU)能够“无损”、高效地运行FP8模型,无需进行模型格式转换。这为大多数走“软件适配”路线的国产厂商提供了一条快速融入FP8生态的捷径,是构建自主算力生态的关键一环。

下一步行动计划

之前的行动计划已成功勾勒出市场格局和各厂商的技术路线。下一步将延续该计划,聚焦于信息的整合、深化与报告产出。

  1. 解决关键信息模糊点:针对寒武纪“思元590”芯片是否原生支持FP8这一矛盾信息,进行最终的考证。这将是判断其技术代际的关键。

    • 核心信息来源:深度检索寒武纪官方发布的关于“思元590”的技术白皮书、官方新闻稿或其在行业顶会(如Hot Chips)上发布的技术文档。
  2. 搜集与整理性能数据:系统性地搜集和整理各厂商在FP8或其等效精度(如华为的OptiQuant INT8)下运行大模型(特别是DeepSeek)的公开性能评测数据。重点关注推理速度(tokens/s)、延迟、能效比等关键指标,以便进行量化对比。

    • 核心信息来源:权威科技媒体的独立评测报告、各厂商官网发布的性能数据(Performance White Papers)、以及“赤兔”引擎等开源项目社区发布的针对不同硬件的性能测试结果。
  3. 构建报告核心框架与可视化图表:基于已掌握的信息,开始搭建研究报告的主体结构,并着手设计核心的可视化图表,尤其是**《国产计算卡FP8支持路径与能力综合对比表》**。此表将以NVIDIA为基准,从“硬件支持”、“软件路径”、“生态方案”、“性能表现”等维度,对所有目标厂商进行直观的横向对比。

  4. 撰写专题分析与总结:完成对“赤兔”引擎作为生态赋能者的专题分析,并在此基础上,撰写报告的最终总结与展望部分。总结国产计算卡在FP8领域的整体态势、核心挑战(如硬件原生支持的普及度、软件生态的成熟度),并对未来发展趋势(如硬件迭代方向、软件生态整合)做出预判。

现在,我将整合所有收集到的信息,为您提供一份全面的研究报告。

国产计算卡在FP8精度下的进展研究报告

摘要

本报告系统性地调研了国产计算卡在FP8精度下的最新进展。随着大模型时代的到来,FP8精度因其在保持模型精度的同时显著降低计算资源需求的优势,已成为AI计算的重要发展方向。报告从FP8技术原理、国际标杆分析、国产厂商进展、技术路径对比以及生态建设五个维度,全面剖析了国产计算卡在FP8领域的现状与挑战。研究发现,国产计算卡在FP8支持上已形成"硬件原生支持"与"软件优化适配"两条技术路线,其中摩尔线程率先实现了硬件层面的原生支持,而华为昇腾等厂商则通过创新的软件方案实现了等效支持。"赤兔"等第三方推理引擎的出现,为国产芯片生态提供了重要支撑。尽管与国际领先水平仍存在差距,但国产计算卡在FP8领域的快速进展展现了强劲的发展势头。

一、背景与技术概述

1.1 FP8精度的技术原理与优势

FP8(8位浮点数)是一种低精度数值表示方法,在AI计算领域具有重要意义。FP8采用两种主要表示方式:E4M3(4位指数和3位尾数)和E5M2(5位指数和2位尾数)developer.nvidia.com。在表示范围内,E4M3更精准,而E5M2有更宽的动态范围developer.nvidia.com

与传统的FP16(16位浮点数)和FP32(32位浮点数)相比,FP8显著减少了存储需求,提高了计算吞吐能力developer.nvidia.com。FP8的核心优势包括:

  • 性能提升:FP8数据宽度更小,减少显存占用,降低通信带宽要求,提高GPU内存读写的吞吐效率。在相同硬件条件下,支持FP8的Tensor Core可以在相同时间内进行更多次的浮点运算,加快训练和推理速度developer.nvidia.com

  • 模型优化:FP8的使用促使模型在训练和推理过程中进行量化,有助于模型的优化和压缩,进一步降低部署成本developer.nvidia.com

  • 与INT8相比的优势:相较于INT8,FP8在LLM的训练和推理中更有优势。因为INT8在数值空间是均匀分布的,而FP8有更宽的动态范围,更能精准捕获LLM中参数的数值分布developer.nvidia.com

1.2 FP8在AI大模型中的应用价值

FP8技术在大模型训练和推理中的应用价值日益凸显:

  • 训练效率提升:新一代GPU如NVIDIA Ada Lovelace、Hopper架构配备了支持FP8数据精度的Tensor Core,相比之前的FP16或BF16数据类型,FP8的Tensor Core可提供两倍的TFlops算力雪球

  • 降低内存占用:FP8数据类型占用的比特数比16比特或32比特更少,针对内存占用较大的操作,可以显著降低内存消耗雪球

  • 训推一致性:FP8不仅适用于模型训练,同样可用于推理加速。相对于传统的INT8推理方法,使用FP8进行模型的训练和推理,可以保持训练和推理阶段模型性能及数据算法的一致性,带来更好的精度保持,避免了使用INT8进行额外的精度校正雪球

二、国际标杆分析:NVIDIA的FP8实现

2.1 NVIDIA在FP8领域的技术布局

NVIDIA作为AI芯片领域的领导者,在FP8技术上的布局为行业树立了标杆:

  • 硬件支持:NVIDIA的Hopper架构和Ada Lovelace架构GPU都支持Transformer Engine进行FP8的训练和推理developer.nvidia.com。具体支持FP8的设备包括H100、A800、H20以及基于Ada Lovelace架构的4090等CSDN技术社区

  • 软件生态:NVIDIA提供了Transformer Engine作为专门为加速Transformer模型训练和推理而打造的软件库,应用混合的FP8和FP16/BF16精度格式developer.nvidia.com。此外,TensorRT-LLM等推理优化方案也支持FP8,大幅提升了LLM的训练和推理性能developer.nvidia.com

2.2 NVIDIA FP8实现的性能表现

NVIDIA的FP8实现在性能上表现出色:

  • 训练加速:FP8可大幅加速Transformer训练,同时保持准确性developer.nvidia.com

  • 推理提速:FP8可大幅提升大型语言模型推理的速度,性能提升高达Ampere架构的30倍developer.nvidia.com

  • 能效比优化:通过使用8位浮点算术,相对于float-16算术,能量效率可以提高多达4倍,相对于float-32算术可以提高多达16倍CSDN技术社区

三、国产计算卡FP8支持现状

3.1 摩尔线程:国产GPU原生FP8支持的先行者

摩尔线程在国产计算卡厂商中率先实现了对FP8的原生硬件支持:

  • 硬件支持:2025年5月,摩尔线程发布了Torch-MUSA v2.0.0版本,基于MUSA Compute Capability 3.1计算架构,率先在国产GPU上实现了对FP8数据类型的完整支持网易。摩尔线程的全功能GPU原生支持FP8计算,为Torch-MUSA v2.0.0实现FP8矩阵乘法和分布式通信优化提供了坚实基础搜狐网

  • 性能优势:依托底层架构优势,Torch-MUSA v2.0.0能够充分发挥FP8的计算效能,显著提升大语言模型训练和推理的效率网易。与同类旗舰产品相比,在训练速度上提升了30%,而内存利用率则降低了25%搜狐网

  • 软件生态:摩尔线程的Torch-MUSA v2.0.0不仅支持原生FP8数据类型,还引入了多项创新功能,包括虚拟内存管理支持、MUSA Graph支持以及torch.compile的Triton后端支持网易。这些功能进一步提升了深度学习任务的执行效率,特别适用于FSDP、DeepSpeed和Megatron-LM等主流大模型训练框架网易

3.2 华为昇腾:软件优化路径的代表

华为昇腾采取了不同于摩尔线程的技术路径,通过软件优化来支持FP8模型:

  • 软件适配方案:华为昇腾推出了高性能保精度量化方案"OptiQuant",通过层间自动混精、自动混合校准、离群值抑制、可学习的截断和SSZW参数量化算法等技术,实现了INT8量化模式与FP8的模型推理精度持平观察者

  • 量化框架创新:OptiQuant框架支持Int2/4/8和FP8/HiFloat8等数据类型,支持业界的Qserve,HQQ,LUT等量化方法,并提出了可学习截断和量化参数优化等算法,进一步减少了量化误差观察者

  • 实际性能表现:基于Atlas 800I A2服务器的精度测试实验结果显示,对于DeepSeek-V3-0324模型,W8A8C16和W4A8C16均采用Per-channel量化,实现了推理精度与FP8-GPU持平观察者

3.3 沐曦:积极适配FP8模型

沐曦作为国产GPU厂商,也在积极适配FP8模型:

  • 硬件基础:沐曦的曦思N100是一款面向云端数据中心应用的AI推理GPU加速卡,内置异构的GPGPU通用处理器核心"MXN100",同时集成了HBM2E高带宽内存,单卡的INT8整数算力达160TOPS,FP16浮点算力则达80TFLOPS腾讯

  • FP8模型适配:沐曦已确认DeepSeek-V3全精度满血版(671B)可以成功运行在沐曦训推一体GPU上今日头条。通过与DeepSeek的适配,沐曦验证了自身芯片在AI领域的能力infoobs.com

  • 软件生态:沐曦自主研发的MXMACA软件栈与硬件架构紧密耦合,支持多种主流框架的网络模型,支持主流计算机视觉处理和多媒体处理框架腾讯

3.4 寒武纪:FP8支持的探索者

寒武纪作为国内AI芯片的重要参与者,在FP8支持方面也有所布局:

  • 现有产品能力:寒武纪的MLU370系列产品,包括MLU370-S4/S8、MLU370-X4和MLU370-X8,支持FP32、FP16、BF16、INT16、INT8、INT4等多种计算精度寒武纪电子发烧友,但目前官方产品规格中尚未明确列出对FP8的支持。

  • 思元590的潜力:有报道指出寒武纪即将推出的思元590芯片可能支持FP8低精度计算微博,但官方尚未确认这一信息。

  • DeepSeek适配:寒武纪思元590芯片已完成DeepSeek框架适配,算力密度提升40%微博,这表明寒武纪在适配支持FP8的模型方面已有进展。

3.5 昆仑芯:百度自研AI芯片的FP8之路

昆仑芯作为百度旗下的AI芯片公司,在FP8支持方面的信息相对有限:

  • 硬件进展:百度智能云已成功点亮昆仑芯三代万卡集群,这是国内首个正式点亮的自研万卡集群中国科技网。昆仑芯三代P800万卡集群在硬件扩展性方面实现了重大突破搜狐网,但关于其是否原生支持FP8的信息尚不明确。

  • DeepSeek适配:昆仑芯与其他国产AI芯片厂商一样,也在积极适配DeepSeek模型新浪财经,这表明其在FP8相关技术上有所布局。

四、"赤兔"引擎:国产芯片FP8支持的关键推手

4.1 赤兔引擎的技术突破

清华大学高性能计算研究所翟季冬教授团队与清华系科创企业清程极智联合开发的"赤兔"(Chitu)推理引擎,为国产芯片支持FP8提供了重要支撑:

  • 核心突破:赤兔引擎首次实现了在非英伟达Hopper架构GPU及各类国产芯片上原生运行FP8精度模型tsinghua.edu.cn。传统技术方案需将FP8模型提前转换为FP16或BF16格式才能运行,而赤兔通过硬件适配优化,无需提前转换模型,即可实现"无痛""无损"支持FP8数据类型tsinghua.edu.cn

  • 性能表现:在A800集群的测试中,赤兔引擎部署DeepSeek-R1-671B满血版时,相比部分国外开源框架,在GPU使用量减少50%的情况下,推理速度仍有3.15倍提速凤凰网

  • 技术原理:赤兔引擎通过底层技术革新,首次实现了非H卡设备(包括英伟达Hopper架构之前的GPU卡及各类国产卡)对原生FP8模型的高效部署,摆脱对特定硬件的依赖凤凰网

4.2 赤兔引擎对国产芯片生态的赋能

赤兔引擎为国产芯片生态提供了重要赋能:

  • 多元算力适配:赤兔引擎不仅支持英伟达全系列GPU,还针对国产芯片深度优化,未来将陆续开源适配版本凤凰网

  • 全场景可伸缩:赤兔引擎目标建立覆盖从纯CPU到大规模集群的全场景大模型部署需求,适配英伟达多款GPU及多款国产芯片科学网—新闻

  • 生态建设加速:赤兔团队与多家国产芯片制造商展开了紧密合作,开通了代码贡献通道,进一步缩短了硬件适配的周期搜狐网。开源不仅是技术的共享,更是为国产芯片"抢时间",帮助国产芯片迅速适应国际节奏,缩小与国外先进芯片之间的技术差距搜狐网

五、国产计算卡FP8支持的技术路径对比

5.1 两条技术路线的比较

国产计算卡在FP8支持上形成了两条明显的技术路线:

  1. 硬件原生支持路线:以摩尔线程为代表,通过在硬件层面集成FP8计算单元,实现对FP8的原生支持。这种路线的优势在于性能更高、效率更好,但需要硬件升级,开发周期较长。

  2. 软件优化适配路线:以华为昇腾为代表,通过软件层面的优化(如OptiQuant框架),在现有硬件上实现与FP8相当的性能。这种路线的优势在于可以快速适配现有硬件,但在极限性能上可能不如原生支持。

下表对比了两种技术路线的主要特点:

特性硬件原生支持路线软件优化适配路线
代表厂商摩尔线程华为昇腾
技术实现硬件层面集成FP8计算单元软件层面的量化优化框架
性能优势理论性能更高,效率更好在特定场景下可接近FP8性能
开发周期较长,需要硬件升级较短,可在现有硬件上实现
适配灵活性相对较低,依赖硬件支持较高,可通过软件更新适配
未来潜力随硬件迭代持续提升受限于基础硬件能力

5.2 第三方生态的桥接作用

第三方生态,特别是"赤兔"推理引擎,在国产计算卡FP8支持中扮演着重要的桥接作用:

  • 技术赋能:赤兔引擎通过底层技术革新,使缺乏原生FP8硬件支持的国产芯片也能高效运行FP8模型,为国产芯片生态提供了重要支撑。

  • 降低门槛:赤兔引擎降低了企业部署AI模型的门槛和成本,使更多企业能够利用国产芯片部署先进的AI模型。

  • 生态建设:赤兔引擎的开源为业界提供了国产开源新选择,加速了"国产大模型 + 国产引擎 + 国产芯片"的完整技术闭环形成搜狐网

六、国产计算卡FP8支持的挑战与前景

6.1 当前面临的主要挑战

国产计算卡在FP8支持上仍面临一些挑战:

  1. 硬件原生支持不足:除摩尔线程外,大多数国产计算卡厂商尚未在硬件层面实现对FP8的原生支持,这限制了其在FP8模型训练和推理上的性能表现。

  2. 软件生态不完善:与NVIDIA的CUDA生态相比,国产计算卡的软件生态仍不够成熟,开发者工具、算法库等支持不足,影响了FP8在国产芯片上的应用效果。

  3. 技术迭代压力:随着AI技术的快速发展,FP8可能只是一个过渡阶段,未来可能出现更低精度(如FP4)的计算格式,国产厂商需要持续跟进技术迭代。

6.2 未来发展趋势与机遇

尽管面临挑战,国产计算卡在FP8支持上仍有广阔的发展前景:

  1. 硬件升级加速:随着摩尔线程成功实现FP8原生支持,其他国产计算卡厂商也将加速硬件升级,在新一代产品中实现对FP8的原生支持。

  2. 软件优化深化:华为昇腾等厂商将继续深化软件优化路线,通过更先进的量化算法和优化技术,进一步提升FP8模型在国产芯片上的运行效率。

  3. 生态协同发展:"赤兔"等第三方推理引擎的出现,为国产芯片生态提供了重要支撑,未来将有更多类似的工具和平台出现,促进国产计算卡生态的协同发展。

  4. 应用场景拓展:随着FP8在国产计算卡上的支持不断完善,其应用场景将从云端推理扩展到边缘计算、移动设备等更广泛的领域,为国产计算卡带来更多市场机会。

七、结论与展望

7.1 主要结论

  1. 技术路径分化明确:国产计算卡在FP8支持上已形成"硬件原生支持"与"软件优化适配"两条技术路线,各有优势。

  2. 摩尔线程领先一步:摩尔线程率先实现了对FP8的原生硬件支持,在国产计算卡中处于领先地位。

  3. 华为软件创新显著:华为昇腾通过OptiQuant等创新软件方案,实现了INT8量化模式与FP8模型推理精度持平,展现了强大的软件优化能力。

  4. 第三方生态关键:"赤兔"等第三方推理引擎为国产芯片生态提供了重要支撑,是构建自主算力生态的关键一环。

  5. 整体进展迅速:尽管与国际领先水平相比仍有差距,但国产计算卡在FP8支持上的进展迅速,展现了强劲的发展势头。

7.2 未来展望

  1. 硬件升级加速:随着AI大模型的普及,更多国产计算卡厂商将在新一代产品中实现对FP8的原生支持,硬件升级将加速推进。

  2. 软硬协同深化:软件优化与硬件升级将协同发展,共同提升国产计算卡在FP8模型上的性能表现。

  3. 生态建设完善:国产计算卡的软件生态将不断完善,开发者工具、算法库等支持将更加丰富,促进FP8在国产芯片上的应用。

  4. 应用场景拓展:FP8在国产计算卡上的应用将从云端推理扩展到边缘计算、移动设备等更广泛的领域,为国产计算卡带来更多市场机会。

  5. 国际竞争加剧:随着国产计算卡在FP8支持上的进展,其与国际领先厂商的竞争将更加激烈,但也将促进技术创新和产业升级。

资料来源: 网易观察者tsinghua.edu.cn

资料来源: 腾讯腾讯中国科技网今日头条tsinghua.edu.cntsinghua.edu.cn网易观察者

参考文献

  1. NVIDIA. "FP8:前沿精度与性能的新篇章". NVIDIA Developer Blog, 2024-03-19.

  2. 雪球. "如何使用 FP8 加速大模型训练". 雪球, 2024-12-26.

  3. CSDN技术社区. "FP8 Formats For Deep Learning——FP8 深度学习格式". CSDN, 2025-01-22.

  4. 网易. "国产GPU突破!摩尔线程发布Torch-MUSA v2.0.0:FP8原生支持". 网易, 2025-05-09.

  5. 搜狐网. "摩尔线程发布Torch-MUSA v2.0.0:首个支持FP8的国产深度学习库". 搜狐网, 2025-05-09.

  6. 清华大学. "我国自研推理引擎开源首次支持国产卡原生运行FP8模型". 清华大学官网, 2025-03-17.

  7. 清华大学. "国产大模型推理引擎"赤兔"开源". 清华大学官网, 2025-03-19.

  8. 凤凰网. "又一清华团队出手!助力国产芯片突破FP8模型及DeepSeek部署成本与效率难题". 凤凰网, 2025-03-14.

  9. 观察者. "华为昇腾推出高性能保精度量化方案,更好适配DeepSeek". 观察者网, 2025-05-25.

  10. CSDN技术社区. "fp8部署deepseek". CSDN, 2025-02-10.

Key references