AI驱动的设计应用
近年来,人工智能(AI)广泛普及,迅速成为了一项变革性技术。AI依托于机器学习(ML)算法,而这需要消耗大量算力。传统上,开发者依靠图形处理单元(GPU)来执行这些ML算法。GPU最初专为图形渲染而开发,事实证明,它非常适合执行机器学习的矩阵和矢量运算。然而,AI硬件领域正在发生巨大变化。计算要求越来越复杂,高能效需求日益显著,在这样的环境下,专门从事特定领域AI处理器的初创公司纷纷涌现。这些初创公司正在开发专用AI处理器,其架构针对ML算法进行了优化,与通用GPU相比,效能功耗比实现了显著提升。
随着AI技术的不断发展,对更强算力和更高能效的需求将持续增长。根据Semianalysis的分析(来源:https://www.semianalysis.com/p/ai-datacenter-energy-dilemma-race),预计到2028年,AI数据中心的电力需求将超过非AI数据中心,占全球数据中心电力消耗的一半以上,而目前这一比例还不到20%(图1)。
图1:AI数据中心和非AI数据中心的电力需求趋势
数据中心行业正在努力减少电力需求,逐步摒弃传统的空气冷却系统,转而采用成本较高但效果显著的液冷技术。然而,仅仅依靠外部冷却技术的进步是不够的。为了应对不断攀升的电力需求,AI硬件开发者还必须在系统设计层面进行创新,探索更全面的电力优化途径。
开发片上系统(SoC)时,开发者可以优化各个阶段设计的功耗,包括架构层面、实现层面和底层技术层面等。新思科技基础IP可以帮助开发者定位目标领域(图2)。SoC的功耗主要源于电路切换引起的动态功耗以及漏电功耗(或静态功耗)。动态功耗在处理器执行指令工作负载时产生,与CV^2f成正比,这里的C表示被充放电的电容,V表示工作电压,f表示电路时钟频率。无论处理器处于空闲还是活跃状态,都会产生漏电功耗,并且随阈值电压、晶体管尺寸和温度而变化。在架构层面,可通过采用电源门控、动态电压频率调整(DVFS)等电源管理技术来降低整体功耗。在实现和工艺技术层面,设计优化以及对逻辑单元和嵌入式存储器工作条件的精细管理会直接影响功耗。让逻辑单元和存储器在维持所需性能的同时,尽可能在更低电压下工作,同时借助专用单元减少活跃节点上的电容,都大大有助于降低功耗。
凭借多代基础IP优化积累的丰富经验和深厚实力,新思科技在AI SoC的功耗优化中扮演着关键角色。新思科技基础IP提供的先进解决方案,包括经过高度优化和验证的逻辑库、通用输入输出(GPIO)和嵌入式存储器。凭借丰富的单元集,新思科技协同优化逻辑库和IO与电子设计自动化(EDA)工具,充分利用工艺技术的优势,实现了功耗、性能和面积(PPA)的更优平衡。新思科技存储器集成了针对ML算法的关键特性,大大缩小了AI芯片的面积,节省了大量功耗。
图2:端到端高能效设计流程
接下来我们将深入探讨新思科技基础IP如何帮助降低功耗,特别是AI处理器的功耗。
图3:(a)MAC单元框图;(b)MAC单元的存储器读写(来源:https://iopscience.iop.org/article/10.1088/1674-4926/42/1/013104)
图4:低供电电压下片上误差的复杂性不断增加
随着应用要求和AI技术的发展,开发算力强大且节能的AI处理器已成为普遍需求。无论是基于GPU的传统架构,还是一些不断发展优化的AI架构,都在将能效曲线推向极限,为支持CPU和前几代GPU而优化的传统库和存储器产品已无法满足当今严苛的AI SoC设计需求。新思科技作为基础IP领域的佼佼者,20多年来秉承创新精神,始终致力于优化PPA,持续推出专业解决方案,以应对半导体行业错综复杂的设计挑战。在强大研发团队和杰出应用开发者的双重助力下,新思科技利用其在逻辑库、IO和嵌入式存储器方面的专业知识,提供一系列出色的可调解决方案,从而全方位增强AI芯片的性能。
In-depth technical articles, white papers, videos, webinars, product announcements and more.