摘要:【盘中宝】与英伟达竞争,韩国瞄准这类芯片,具有显著的能耗节约优势,这家公司用于人工智能的相关产品业界领先
财联社资讯获悉,韩国政府与AI芯片和云计算企业联合,组成一个团队,研发高算力、低能耗的神经网络处理器(NPU)推理芯片。
一、NPU芯片具有显著的能耗节约优势
据悉,这一举措的目的是与英伟达竞争,但避开其擅长的GPU。该NPU芯片研发第一期项目将斥资1000亿韩元,目标到2025年完成神经网络处理器验证;第二期目标2028年研制出低功耗存内处理(PIM)芯片;第三期目标2030年研制出超低功耗存内处理芯片。
AI芯片是算力的核心,是专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。伴随数据海量增长,算法模型趋向复杂,处理对象异构,计算性能要求高,AI芯片在人工智能的算法和应用上做针对性设计,可高效处理人工智能应用中日渐多样繁杂的计算任务。
AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、神经拟态芯片(NPU)等。NPU芯片设计逻辑更为简单,常用于边侧和端侧的模型推理,并生成结果,在处理推理工作负载时,具有显著的能耗节约优势。
二、座舱对NPU算力需求3年或增10倍
智能汽车时代芯片架构更加复杂化,需要类似大脑功能实现自动驾驶的神经网络NPU。根据IHS测算,座舱对芯片CPU算力的需求在3年内增长3倍,NPU算力需求则在3年内增长约10倍。光大证券认为,NPU将成为人工智能的重要趋势。
三、相关上市公司:芯原股份 国科微 瑞芯微
芯原股份用于人工智能的神经网络处理器IP(NPU)业界领先,已经在10多个领域、60多家客户的110多款芯片中被采用,公司的AI视频处理解决方案、GPGPU和NPU也已经被用于客户面向数据中心、高性能计算、汽车等领域的AI芯片中。
国科微自研的的相关芯片使用场景更加广泛,可应用于多场景AI应用比如工控应用、家用机器人应用、车载应用,边缘计算、机器视觉等众多智能视觉场景。目前,公司在视觉领域NPU的前端算力已经达到了4T,正积极同下游厂家进行适配与导入。
瑞芯微的通用SoC芯片不仅包含用于人工智能的神经网络运算处理单元NPU,还包括CPU、GPU等与NPU算力匹配的通用运算单元,以及高效的存储和丰富的接口,满足各种AIoT场景下端侧和边缘计算侧的产品应用。
近期热门系列:
6月20日《“机器人+”时代到来,精密减速器被誉为“工业机器人的心脏”,在价值量上占据大头》
6月20日《年初以来陆续发布重磅政策文件,充电桩需求加速上行,2023年或为销量高增之年》
6月13日《实现高阶自动驾驶的必要条件,2025年全球市场规模或超千亿元》
6月13日《AI、HPC等高耗能运算催生需求,该技术或为最佳解决方案》
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任