高通发布AI200与AI250,升级数据中心AI推理解决方案
创始人
2025-10-28 21:15:00

【环球网科技综合报道】10月28日,高通宣布推出面向数据中心的下一代AI推理优化方案,包括基于Qualcomm AI200与AI250芯片的加速卡及机架系统。依托自身在NPU技术领域的积累,该系列方案聚焦机架级性能与内存容量优化,可凭借高效能为生成式AI推理提供支持,助力各行业推进可扩展、高效率的AI部署。

Qualcomm AI200方案专为机架级AI推理设计,重点服务大语言模型(LLM)、多模态模型(LMM)推理及其他AI工作负载,核心优势在于低总体拥有成本与性能优化。每张加速卡支持768GB LPDDR内存,既能满足更高内存容量需求,又能控制成本,为AI推理场景提供扩展性与灵活性支持。

Qualcomm AI250方案则首发近存计算(Near-Memory Computing)创新内存架构,该架构可实现10倍以上有效内存带宽提升,同时显著降低功耗,为AI推理工作负载带来能效与性能提升。此外,其支持的解耦式AI推理功能,能实现硬件资源高效利用,适配不同客户的性能与成本需求。

Qualcomm AI200与AI250的机架解决方案具备多项共性技术设计:均支持直接液冷散热,可提升散热效率;兼容PCIe纵向扩展与以太网横向扩展,满足不同规模部署需求;内置机密计算功能,保障AI工作负载的运行安全;整机架功耗统一控制为160千瓦,符合数据中心能耗管理标准。

高通技术公司高级副总裁兼技术规划、边缘解决方案和数据中心业务总经理马德嘉(Durga Malladi)称,为配合硬件方案落地,高通技术公司提供超大规模级AI软件栈,覆盖从应用层到系统软件层的全链路,且针对AI推理场景优化。据悉,该软件栈支持主流机器学习(ML)框架、推理引擎、生成式AI框架,以及解耦服务等LLM/LMM推理优化技术。

开发者可通过高通的高效Transformer库与Qualcomm AI Inference Suite,实现模型无缝接入,还能一键部署Hugging Face模型。同时,软件端提供开箱即用的AI应用与智能体、完善工具、库、API接口及AI运营化服务,降低企业与开发者的集成、管理及扩展成本。

Qualcomm AI200预计于2026年实现商用,Qualcomm AI250则计划在2027年推向市场。未来,高通技术公司将按年度迭代节奏推进数据中心产品技术路线图,持续聚焦AI推理性能、能效与总体拥有成本优化,助力数据中心更好适配生成式AI发展需求。(心月)

相关内容

热门资讯

每日必看教程“微娱棋牌开挂辅助... 您好:微娱棋牌这款游戏可以开挂,确实是有挂的,需要了解添加微信【29290261很多玩家在这款游戏中...
每日必看教程“闲逸互娱开挂辅助... 每日必看教程“闲逸互娱开挂辅助器助手”查看详细开挂教程-知乎是一款可以让一直输的玩家,快速成为一个“...
每日必看教程“月光宝盒开挂辅助... 【无需打开直接搜索微信;29290261】 操作使用教程:1.亲,实际上月光宝盒是可以开挂的,确实有...
每日必看教程“极星娱乐开挂辅助... 无需打开直接搜索微信:极星娱乐有挂吗本司针对手游进行,选择我们的四大理由:1、软件助手是一款功能更加...
每日必看教程“珊瑚互娱开挂辅助... 亲,珊瑚互娱有的,ai轻松简单,又可以获得无穷的乐趣,珊瑚互娱是你和朋友度过闲暇时光的不二选择,赶紧...