跳转到主要内容

得一微电子亮出AI“存力”王牌:Chiplet技术如何打破“存储墙”?

日期: 栏目:人工智能硬件 浏览:

在北京举办的第四届HiPi Chiplet论坛上,一场关于芯片未来的深度对话正在展开。论坛以“探索芯前沿,驱动新智能”为主题,聚焦算力升级、先进工艺突破与人工智能技术赋能等核心议题。在这场汇聚了国内芯片产业链顶尖力量的盛会中,得一微电子首席市场官罗挺先生的演讲《Chiplet时代的AI存力芯片》,为与会者揭示了存储技术如何从被动支持角色转变为驱动AI算力突破的关键力量。

当前,全球集成电路产业正经历深刻变革,人工智能技术的飞速发展对芯片性能提出了前所未有的要求。在这一背景下,芯粒(Chiplet)技术已成为突破高端芯片发展瓶颈的关键路径。HiPi联盟作为国内推动Chiplet技术发展的重要力量,正着力构建端到端、可持续演进的Chiplet标准体系与技术生态。本届AI芯片及应用分论坛汇聚了来自北京大学、清华大学等顶尖学府,以及超聚变、安谋科技、科大讯飞、得一微电子等企业的专家学者,共同探讨人工智能与AI芯片应用的软硬协同创新。

202512241704573364.jpg

在主题演讲中,罗挺先生聚焦于Chiplet技术驱动下的AI存力芯片创新。他指出,在2025年存力市场供需关系变化及AI需求激增的双重驱动下,发展高性能存力芯片已成为产业发展的必然选择。当前基于Transformer架构的大语言模型(LLM)虽然在GPU上实现了高效并行计算,但这种高度集中的计算方式正日益面临存储带宽和容量的瓶颈。传统的“存储墙”问题已成为制约AI算力发展的关键障碍。

罗挺先生强调,Chiplet技术展现出的IP芯片化、集成异构化、IO增量化的趋势,为突破这一瓶颈提供了革命性的解决方案。以存算一体为核心的存力芯片,将深刻改变神经网络的计算范式。经过重新设计的存力芯片通过搭配高带宽闪存颗粒,能够在大容量、高性价比与卓越能效之间实现最佳平衡。而Chiplet高速互连机制则为GPU-Storage直连架构的异构集成提供了天然载体,使得GPU能够通过标准协议直接访问SSD数据,最终实现亿级IOPS性能的SSD解决方案。

这一技术路径的背后,是得一微电子在AI存力领域的长期积累与创新实践。作为国内领先的AI存力芯片设计企业,得一微电子率先推出的AI-MemoryX显存扩展技术,已展示出其对大模型训练与推理的显著赋能价值。该技术能够有效扩充可用显存容量,大幅降低对昂贵高速显存的依赖,助力更多企业与研究机构以有限资源和较低成本开展大模型训练与微调。目前,这项技术已支持在政务、医疗、教育、办公等多个关键领域的深度应用。

罗挺先生在演讲中进一步剖析了得一微电子的AI存力芯片如何通过存算一体与存算互联技术的协同,实现全新的融合存算架构。这种架构不仅能够突破传统存储系统的性能瓶颈,更能通过系统级优化实现存力与算力的深度协同。展望未来,得一微电子将持续深化在存储控制、存算互联与存算一体等领域的技术研发和布局,致力于为智能终端、智能汽车及智算中心提供全场景AI存力支持。

202512241704566491.jpg

从技术演进的角度来看,AI存力芯片的发展正经历从“存储即服务”到“存储即算力”的范式转变。在传统架构中,存储系统主要承担数据保存和读取的职能;而在AI时代,存储系统需要深度参与计算过程,实现数据在存储介质中的即时处理。这种转变要求存储芯片不仅要具备高带宽、大容量、低延迟的特性,更要与计算单元实现深度融合与协同优化。

得一微电子的技术路线恰恰契合了这一发展趋势。通过Chiplet技术实现的异构集成,使得存储单元能够以更紧密的方式与计算单元结合,大幅降低数据搬运的开销,提升整体能效比。同时,存算一体架构的引入,使得部分计算任务可以在存储单元内部完成,进一步减少了数据在存储与计算单元之间的往返传输,为AI计算提供了更高效的硬件基础。

随着AI技术向更多应用场景渗透,从云端智算中心到边缘设备,从智能手机到智能汽车,对存力芯片的需求正呈现多样化、专业化的发展趋势。得一微电子的AI存力芯片布局覆盖了从智能终端到基础设施的全场景需求,展现了企业在技术前瞻性与市场洞察力方面的卓越能力。

在论坛的交流环节,与会专家普遍认为,存储技术的创新将成为下一阶段AI芯片发展的关键突破口。随着大模型参数规模的持续增长,以及多模态AI应用的快速发展,对存储系统的带宽、容量和能效提出了更高要求。Chiplet技术与存算一体架构的结合,为解决这些问题提供了切实可行的技术路径。

得一微电子在本次论坛上的分享,不仅展示了一家中国芯片设计企业在技术创新上的决心与实力,更为整个AI芯片产业的发展提供了重要参考。在人工智能技术快速演进、应用场景不断拓展的今天,存储技术的突破将成为释放算力潜能、推动AI普惠化的重要引擎。当存储不再只是数据的“仓库”,而成为计算的“加速器”,AI芯片的性能边界将被重新定义,智能计算的未来也将因此变得更加广阔与高效。

标签: