RISC-V标准已经发展成熟,与经过长期验证但价格昂贵的Arm和x86处理器相比,性能差距已基本消失。
这对于寻求更具成本效益的芯片编程方式或希望优化芯片CPU性能的开发者来说是个好消息——不仅因为Arm授权费用高昂,还因为开发者可以自由实现指令集,而无需每次都获得Arm的许可。
结合其固有的向量计算能力,RISC-V特别适合AI应用,因为AI需要多个进程并行运行——这正是RISC-V特别擅长的工作负载。
或许AI芯片领域最被低估和鲜为人知的转折点之一,是去年英伟达宣布的计划——CUDA将支持RISC-V指令集。同样在去年,Linux内核更新了RISC-V的实现驱动程序和补丁,添加了开源RISC-V设备迁移所需的最后一个关键要素。Canonical的Ubuntu也支持RISC-V。
这意味着开发者和设备制造商现在可以编程和实现与Linux兼容的RISC-V处理器,结合指令集与英伟达CUDA GPU协同工作,就像使用x86和Arm处理器一样。在相对昂贵的CPU和Arm处理器短缺的时候,这代表了重大推进,因为现在有了更便宜的RISC-V替代方案。
虽然英伟达在其文档中没有对此进行详细说明,但RISC-V国际组织广泛报道了这一发展。
需要说明的是,尽管这显然可能为AI开发带来助力——特别是对于RISC-V非常适合的大量边缘和嵌入式设备——英伟达并未正式表示这种支持是其主要AI扩张策略。但开发者现在能够随意为英伟达GPU上的AI创建和实现指令集,而无需担心Arm和x86的授权和成本问题。
"AI框架在不断变化,而CUDA占据主导地位,"RISC-V OEM厂商DeepComputing创始人兼CEO梁宇宁表示。"新框架不断出现。在这一切中,软件仍然是关键。"
工程师在RISC-V处理器上自由开发与使用Arm、英特尔或AMD的CPU授权完全不同。"以前,你不能要求英特尔做任何事情。你只能被困其中。但现在有了RISC-V,你可以发挥所有想象力,做任何你想做的事情,并充分利用它,"他说。
在AI热潮之前,在大语言模型和Google著名的Transformer研究论文之前,"没有人看到这一切的到来。在AI出现之前,我不知道RISC-V高性能SoC会走向何方,"梁宇宁说。"幸运的是AI来了,所以我们全力投入AI领域。"
在RISC-V国际2025年年度报告中,RISC-V首席架构师Krste Asanovic评估了年末状况和2026年的发展方向:
"在2025年,我们进一步推进这项工作,发起有针对性的活动,阐述RISC-V的独特特性如何解决特定垂直市场的具体挑战,"他说。"因此,RISC-V现在已经牢固地成为关键行业决策者词汇、路线图和采购选择的一部分。今天,我们专注于几个关键的垂直领域。
"在嵌入式和物联网领域,我们已经有了重要部署。在数据中心和汽车领域,我们看到对通用RISC-V计算日益增长的兴趣。同时,在插槽数量较小但要求较高的市场,如航天和高性能计算(HPC),已经提供了巨大的机会。
当然还有AI。"与安全一样,AI横跨每个垂直领域,"Asanovic说。"2025年发生了巨大变化,可以肯定地说,我见过的几乎每个新AI加速器项目都在使用RISC-V。这并非偶然:我们从一开始就设计RISC-V来支持标量、向量和矩阵计算,所以它就是有效的。同样的核心可以处理控制和数值工作负载,在性能层次间扩展,并与AI一起发展。所有主要行业参与者都开始认识到RISC-V很快将成为主导的开放ISA。在许多垂直市场,我们已经超越了'是否'的问题。现在的对话是关于如何、何时以及在哪里采用RISC-V。"
Q&A
Q1:RISC-V相比Arm和x86处理器有什么优势?
A:RISC-V在性能上已与Arm和x86处理器相当,但成本更低,开发者可以自由实现指令集而无需获得授权许可,避免了昂贵的Arm授权费用,并且具有固有的向量计算能力,特别适合AI应用的并行处理需求。
Q2:英伟达CUDA支持RISC-V对AI开发有什么影响?
A:这意味着开发者现在可以在RISC-V处理器上使用英伟达CUDA GPU进行AI开发,就像使用x86和Arm处理器一样。这为AI开发提供了更便宜的替代方案,特别适合边缘和嵌入式AI设备,开发者可以自由创建和实现指令集而无需担心授权成本。
Q3:RISC-V在哪些领域已经开始应用?
A:RISC-V已在嵌入式和物联网领域实现重要部署,在数据中心和汽车领域也有日益增长的应用兴趣。在航天和高性能计算等要求较高的市场提供了巨大机会,几乎所有新的AI加速器项目都在使用RISC-V。