Cadence与NVIDIA联手革新AI芯片功耗分析
在半导体行业取得的重大进展中,Cadence和NVIDIA共同揭示了一项在芯片流片前功耗分析领域的突破性合作,有望彻底改变节能AI和机器学习(ML)芯片的设计方式。通过利用Cadence Palladium Z3企业级仿真平台的强大功能,并结合全新的Cadence动态功耗分析(DPA)应用,两家公司成功攻克了此前被认为是难以逾越的挑战:对十亿门级AI设计进行硬件加速动态功耗分析,在短短数小时内即可覆盖数十亿个操作周期,同时保持高达97%的惊人精度。这一里程碑将赋能半导体和系统开发人员,帮助他们创建更节能的系统,并加速产品上市。
当代半导体和系统日益增长的复杂性和计算需求,长期以来一直是设计师面临的巨大障碍。在实际运行条件下准确预测功耗一直难以实现,因为传统的功耗分析工具通常难以扩展到数十万个周期以上,否则会需要不切实际的时间线。通过紧密的合作,Cadence和NVIDIA有效地克服了这些限制,采用了硬件辅助功耗加速和并行处理的创新技术。这使得即使在设计的早期阶段,也能在数十亿个周期内实现前所未有的精度。
Cadence公司副总裁兼总经理Dhiraj Goswami强调了支撑这项成就的深厚合作。“Cadence和NVIDIA正在我们长期以来通过深度合作推出变革性技术的历史基础上继续前进,”Goswami表示。他强调了处理速度的显著提升,并指出该项目“重新定义了边界,在短短两到三个小时内处理了数十亿个周期。这使得客户能够自信地达到严苛的性能和功耗目标,并加速其芯片上市时间。”
NVIDIA硬件工程副总裁Narendra Konda也表达了同样的看法,强调了在快速发展的AI领域对先进工具的迫切需求。“随着智能体AI和下一代AI基础设施时代的迅速发展,工程师需要复杂的工具来设计更节能的解决方案,”Konda解释道。他补充说,NVIDIA在加速计算方面的专业知识与Cadence在电子设计自动化(EDA)领域的领导地位相结合,正在“推进硬件加速功耗分析,以在加速计算平台中实现更精确的效率。”
Palladium Z3平台利用DPA应用在实际工作负载下提供准确的功耗估算。这项关键能力使设计人员能够在“流片”阶段——即设计最终确定用于制造的阶段——之前验证功能、功耗和性能,此时优化仍然可以轻松实现。这种早期功耗建模对于AI、ML和GPU加速应用尤其有利,因为它不仅提高了能源效率,还有助于避免因半导体设计过度或不足而导致的昂贵延误。通过将Palladium DPA集成到Cadence全面的分析和实施解决方案中,设计人员现在可以在整个设计过程中解决功耗估算、降低和签核问题,最终实现最有效的芯片和系统设计。