收藏 分享(赏)

2022中国人工智能芯片行业研究报告.pdf

上传人:a****2 文档编号:3041101 上传时间:2024-01-18 格式:PDF 页数:48 大小:5.69MB
下载 相关 举报
2022中国人工智能芯片行业研究报告.pdf_第1页
第1页 / 共48页
2022中国人工智能芯片行业研究报告.pdf_第2页
第2页 / 共48页
2022中国人工智能芯片行业研究报告.pdf_第3页
第3页 / 共48页
2022中国人工智能芯片行业研究报告.pdf_第4页
第4页 / 共48页
2022中国人工智能芯片行业研究报告.pdf_第5页
第5页 / 共48页
2022中国人工智能芯片行业研究报告.pdf_第6页
第6页 / 共48页
亲,该文档总共48页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2022中国人工智能芯片行业研究报告亿欧智库 https:/ reserved to EqualOcean Intelligence,February 2022前言前言随着人工智能新兴产业的高速发展,传统的芯片已不能满足人工智能产业对芯片性能及算力等方面的要求。因此,如何构建出高效的人工智能芯片,将芯片技术与人工智能技术有效地结合起来成为当前的热点话题。人工智能芯片领域的研究,或将科技发展推向一个更高的阶层。亿欧认为,人工智能芯片作为人工智能及相关应用的基础与核心,必将迎来光明的未来。本报告对AI芯片主流类型进行拆解分析,展现中国人工智能芯片的发展现况,探究其发展的困境和机遇,希望能为广大从业

2、者和各方关注人士提供有益的帮助。本报告核心观点:本报告核心观点:政策扶持政策扶持和市场需求市场需求仍是人工智能芯片发展的主要驱动力。据亿欧智库测算,2025年,中国人工智能核心产业市场规模将达到40004000亿元亿元,其中基础层芯片及相关技术的市场规模约17401740亿元亿元。四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度层次不齐。用于云端的训练、推断等大算力通用芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企业也集中在应用层。未来,中国人工智能芯片行业挑战与机遇挑战

3、与机遇并存。技术上,由于基础理论、关键设备等仍落后与国际一流水平,瓶颈较难突破,因此芯片制造芯片制造环节仍有所差距,但垂直行业应用的芯片设计芯片设计及相关企业的数量相关企业的数量上,中国仍占据较为优势的地位;在算法上,除了创新计算范式的研发,“数据孤岛”问题也将在政策的指导下得到解决,为AI算法提供更大量、更准确的数据集进行学习与训练;应用上,消费电子消费电子、自动驾驶自动驾驶、智慧安防智慧安防、机机器人器人等仍是较为主流的应用方向,政策指导使产业获得更好的联动性联动性,同时,人工智能逐步横向往媒体、医疗、教育等行业渗透与拓展。总体来看,人工智能芯片的发展仍需基础科学积累和沉淀,因此,产学研融

4、合产学研融合不失为一种有效的途径。充分利用企业、高校、科研机构等多种不同的教育环境与教育资源,将理论知识传授与产业工程实践、科研实践相结合,培养并积累人工智能领域优质人才,维持中国人工智能及芯片行业的可持续发展可持续发展。2中国人工智能芯片行业发展现状中国人工智能芯片行业发展现状人工智能芯片行业解读人工智能芯片行业解读01.01.技术层面技术层面02.02.应用层面应用层面03.03.典型企业典型企业中国人工智能芯片行业的挑战与机遇中国人工智能芯片行业的挑战与机遇二二三三一一目录目录C O N T E N T S一、.中国人工智能芯片行业发展现状研究主体界定:面向人工智能领域的芯片及其技术、算

5、法与应用研究主体界定:面向人工智能领域的芯片及其技术、算法与应用5应用层终端产品智慧金融智慧医疗教育无人驾驶营销智能安防智能制造智慧城市智慧零售智能家居技术层通用技术自然语言处理计算机视觉语音识别机器学习算法机器学习增强学习 深度学习技术框架分布式储存分布式计算 神经网络基础层数据通用数据行业大数据系统智能云平台大数据平台硬件GPU/FPGA等加速硬件智能芯片在场景应用中,利用人工智能学科技术解决生产生活的问题。常用的算法与技术等,解决人工智能应用中的核心计算问题。人工智能应用中完成大量运算所需的硬件、模型训练所需的数据及数据处理平台等。来源:公开资料、亿欧智库整理“无芯片不AI”,以AI芯片

6、为载体实现的算力是人工智能发展水平的重要衡量标准。广义的AI芯片:专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。狭义的AI芯片:针对人工智能算法做了特殊加速设计的芯片。本报告将对针对狭义的AI芯片即人工智能算法做特殊加速设计的四种主流芯片GPU、ASIC、FPGA、类脑芯片以及系统级AI芯片技术、实现AI的主流算法及在场景中的应用情况进行解析。AIAI芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行6来源:张臣雄AI芯片-前沿技术于创新未来、公开资料、亿欧智库整理亿欧智库:

7、人工智能与半导体芯片的发展进程对照亿欧智库:人工智能与半导体芯片的发展进程对照神经网络神经网络模型模型半导体半导体芯片芯片19401960198020002020晶体管第一块芯片感知器CPU(MCU)Hopfield网络FPGA神经网络芯片GPU新的DNN算法基于深度学习的AI芯片类脑芯片人工智能算法需要在计算机设备上实现,而芯片又是计算机设备运作的核心零件,因此AI芯片的发展主要依赖两个领域:第一个是模仿人脑建立的数学模型与算法数学模型与算法,第二个是半导体集成电路半导体集成电路即芯片。优质的算法需要足够的运算能力也就是高性能芯片的支持。亿欧智库2019年发布AI芯片行业研究报告认为,人工智

8、能于芯片的发展分为三个阶段:第一阶段由于芯片算力不足,神经网络算法未能落地;第二阶段芯片算力提升,但仍无法满足神经网络算法需求;第三阶段,GPU和新架构的AI芯片促进了人工智能的落地。目前,随着第三代神经网络的出现,弥合了神经科学与机器学习之间的壁垒,AI芯片正在向更接近人脑的方向更接近人脑的方向发展。中国政策环境:在政策的引导支持下,中国人工智能芯片市场持续快速发展中国政策环境:在政策的引导支持下,中国人工智能芯片市场持续快速发展7亿欧智库:亿欧智库:2016-2021 2016-2021年中国人工智能芯片相关政策梳理年中国人工智能芯片相关政策梳理年份年份政策政策相关内容相关内容2016年发

9、改委互联网+”人工智能三年行动实施方案对人工智能芯片发展方向提出多项要求,并促进智能终端可穿戴设备的推广落地。2017年国务院新一代人工知恩感发展规划重点突破高效能、可重构类脑计算芯片和具有计算机成像功能的类脑视觉传感器技术,研发具有学习能力的高效能类脑神经网络架构和硬件系统,实现具有多媒体感知信息理解和智能增长、尝试推理能力的类脑智能系统。2017年工信部关于促进新一代人工智能产业发展三年行动计划按照“系统布局、重点突破、协同创新、开放有序”的原则,在深入调研基础上研究提出重点发展智能传感器、神经网络芯片、开源开放平台等关键环节,夯实人工智能产业发展的软硬件基础。2019年关于促进人工智能和

10、实体经济深度融合的指导意见把握新一代人工智能的发展特点,结合不同行业,不同区域特点,探索创新成果应用转化的路径和方法,构建数据驱动、人机协同、跨界融合的智能经济形态。2021年“十四五”规划纲要和2035远景目标纲要我国新一代人工智能产业将着重构建开源算法平台,并在学习推理与决策、图像图形等重点领域进行创新,聚焦高端芯片等关键领域。来源:公开资料、亿欧智库整理芯片产业是信息产业的核心部件与基石。当前,我国芯片高度依赖进口非常不利于国家安全与行业发展。因此,近年来国家高度关注人工智能芯片产业的发展,发布一系列产业支持政策,为人工智能芯片行业建立了优良的政策环境,促进行业的发展。2021年,“十四

11、五”规划纲要和2035年远景目标纲要指出,“十四五”期间,我国新一代人工智能产业将聚焦高端芯片高端芯片等关键领域。从国家战略国家战略高度为人工智能芯片行业建立了优良的政策环境。各地方也根据各自的背景与条件,发布促进和扶持人工智能产业发展的方案方针。截止2021年9月,包括北京、天津、上海、江苏、福建等2020余省余省、市、地区发布人工智能相关政策,进一步支持引导人工智能及芯片产业发展。中国市场环境:需求是主要驱动力,边缘中国市场环境:需求是主要驱动力,边缘/终端芯片市场将持续增长。终端芯片市场将持续增长。8来源:工信部、公开资料、亿欧智库整理2018年12月,中央经济会议把人工智能与5G、工业

12、互联网、物联网等定义为新型基础设施建设,各行业数字化转型加速,产生了更多样化的人工智能产业应用数据和更复杂的深度学习算法需求。目前,中国人工智能产业链中,应用层企业比例超过80%80%,结合场景的应用落地应用落地是人工智能产业的主要驱动力。根据亿欧智库数据,中国人工智能企业的十大应用技术领域中,计算机视觉计算机视觉、机器人机器人、自然语言处理自然语言处理、机器学习机器学习、生物识别生物识别占比居前五;企业服务、机器人和通用方案以及安防、汽车是AI应用的主要方向,边缘/终端芯片需求将持续增长。市场规模测算:市场规模平稳增长,产业融合加速市场规模测算:市场规模平稳增长,产业融合加速来源:工信部、信

13、通院、亿欧智库测算亿欧智库:中国人工智能核心产业市场规模(单位:亿元)亿欧智库:中国人工智能核心产业市场规模(单位:亿元)亿欧智库:亿欧智库:2019-20252019-2025年中国年中国AIAI芯片市场规模(单位:亿元)芯片市场规模(单位:亿元)9人工智能整体市场已从2020年的疫情影响中恢复,同时,随着技术的成熟以及数智化转型升级,内在需求增加,中国人工智能核心产业市场规模将持续平稳增长,预计2025年将达到约40004000亿元亿元。随着大算力中心的增加以及终端应用的逐步落地,中国AI芯片需求也持续上涨。2021年疫情缓解,市场回暖,产生较大增幅;类脑等新型芯片预计最早于2023年进入

14、量产,因此2024及2025年或有较大增长,预计市场规模将于2025年达到17401740亿元亿元。CAGR=31.2%CARG=42.9%中国投资环境:资本持续进入,交易金额均超亿元中国投资环境:资本持续进入,交易金额均超亿元10来源:亿欧数据、IT桔子等,亿欧智库整理亿欧智库:亿欧智库:20212021年中国人工智能芯片交易事件及金额年中国人工智能芯片交易事件及金额 (截止(截止20222022年年1 1月)月)人工智能芯片国内投资事件数量人工智能芯片国内投资事件金额(单位:亿元)亿欧智库:中国人工智能芯片交易事件(部分)亿欧智库:中国人工智能芯片交易事件(部分)-截止截止20222022

15、年年1 1月月企业企业时间时间阶段阶段金额金额燧原科技2021-01-05C轮18亿元沐曦集成电路2021-01-18Pre-A轮数亿元天数智芯2021-03-01C轮12亿元壁仞科技2021-03-30B轮数十亿元智砹芯半导体2021-04-07A轮数亿元地平线2021-06-10C系列15亿美元埃瓦智能2021-07-16A轮数亿元星云智联2021-07-23Pre-A轮数亿元后摩智能2021-07-27A轮未披露灵汐科技2021-08-19战略投资未披露芯启源2021-11-03A轮数亿元安路科技2021-11-12已上市13.03亿元瀚博半导体2021-12-20B轮16亿元中科驭数2

16、021-12-21A+轮数亿元墨芯2022-01-12A轮数亿元深聪智2022-01-11A轮数亿元相较2020年,人工智能领域投资数量有所减少,但单笔投资规模呈上升趋势。AI芯片产业也持续有资本进入,单笔融资金额均超亿元。截止2022年1月,2021年中国人工智能芯片相关领域融资事件共计9292起起,总金额约300300亿人民币亿人民币。中国人工智能芯片人才市场:各领域人才缺口仍较大,国家开始重视人才培养中国人工智能芯片人才市场:各领域人才缺口仍较大,国家开始重视人才培养1120182018年年4 4月高等学校人工智能创新行动计划月高等学校人工智能创新行动计划加快人工智能领域学科建设,支持高

17、校在计算机科学与技术学科设置人工智能学科方向;加强人工智能领域专业建设,推进“新工科”建设,形成“人工智能人工智能+X+X”复合专业培养新模式;加强人工智能领域人才培养,加强人才培养与创新研究基地的融合,完善人工智能领域多主题协同育人机制。构建人工智能多层次教育体系。20202020年年1 1月月“双一流双一流”建设高校促进学科融合加快人工智能领域研究生建设高校促进学科融合加快人工智能领域研究生培养的若干意见培养的若干意见鼓励人工智能龙头企业根据产业技术的最新发展和对人才培养的最新需求,提供试验实践环境,对高校教师开展培训;以双聘等灵活聘用方式吸引企业和科研院所优秀人才到高校开展科学研究和人才

18、培养;依托“双一流”建设高校,建设国家人工智能产教融合创新平台,鼓励企业参与共建,在资金、项目等方面优先支持。注:人才供需比=进入该岗位的人才意向数量/岗位需求数量亿欧智库:人才培养相关政策亿欧智库:人才培养相关政策来源:工信部人才交流中心数据库,亿欧智库整理AI芯片的实现包含软件软件和硬件硬件两个方面。既需研究高效率的智能算法,同时要研究如何将这些算法结合在半导体硅片上,形成最终的产品。目前,仍有部分企业在人才招聘中遇到不少阻碍,人才缺乏人才缺乏、成本高成本高是主要的问题。根据工信部人才交流中心发布的数据显示,人工智能不同技术方向岗位的人才供需比均低于低于0.40.4,其中人工智能芯片岗位人

19、才供需比为0.32,机器学习、自然语言处理等技术人才供需仅0.2。国家也开始重视人工智能相关人才的培养,中央及各地方政府出台了多个人才培养与引进相关政策;在2018-2021年,超过超过300300所所高校开设了人工智能专业;部分企业也开始与高校进行合作,以产学研合作产学研合作教学模式共同培养综合能力突出的优质人才。亿欧智库:中国人工智能技术方向岗位供需情况亿欧智库:中国人工智能技术方向岗位供需情况中国中国AIAI芯片产业图谱芯片产业图谱12亿欧智库:中国人工智能芯片产业图谱亿欧智库:中国人工智能芯片产业图谱来源:公开资料、亿欧数据,亿欧智库整理云端芯片云端芯片边边/端侧芯片端侧芯片类脑芯片类

20、脑芯片IPIP授权授权二、人工智能芯片解读01.技术层面基于技术架构、部署位置及实践目标的基于技术架构、部署位置及实践目标的AIAI芯片分类芯片分类15AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。AI芯片根据其技术架构,可分为GPUGPU、FPGAFPGA、ASICASIC及类脑芯片及类脑芯片,同时CPU可执行通用AI计算,其中类脑芯片还处于探索阶段。AI芯片根据其在网络中的位置可以分为云端云端AIAI芯片芯片、边缘及终端边缘及终端AIAI芯片芯片;根据其在实践中的目标,可分为训练(训练(trainingtraining)芯片)芯片和和推理推理(infere

21、nceinference)芯片)芯片。云端主要部署训练芯片和推理芯片云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘边缘和终端主要部署推理芯片和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。来源:公开资料,亿欧智库整理技术架构技术架构种类种类定制化定制化程度程度可编辑性可编辑性算力算力价格价格优点优点缺点缺点应用场景应用场景GPU通用型不可编辑中高通用性较强且适合大规模并行运算;设计和制造工艺成熟并行运算能力在推理端无法完全发挥高级复杂算法和通用性人工智能平台FPG

22、A半定制化容易编辑高中可通过编程灵活配置芯片架构适应算法迭代,平均性能较高;功耗较低;开发时间较短(6个月)量产单价高;峰值计算能力较低;硬件编程困难适用于各种具体的行业ASIC全定制化难以编辑高低通过算法固化实现极致的性能和能效、平均性很强;功耗很低;体积小;量产后成本最低前期投入成本高;研发时间长(1年);技术风险大当客户处在某个特殊场景,可以为其独立设计一套专业智能算法软件类脑芯片模拟人脑不可编辑高-最低功耗;通信效率高;认知能力强目前仍处于探索阶段适用于各种具体的行业亿欧智库:亿欧智库:GPUGPU的开发环境的开发环境GPUGPU:从图形处理器到通用数据并行处理器:从图形处理器到通用数

23、据并行处理器16来源:公开资料,亿欧智库整理GPU(Graphics Processing Unit)图形处理器图形处理器最初是一种专门用于图像处理的微处理器,随着图像处理需求的不断提升,其图像处理能力也得到迅速提升。目前,GPU主要采用数据并行计算模式完成顶点渲染、像素渲染、几何渲染、物理计算和通用计算等任务。因其超过CPU数十倍的计算能力,已成为通用计算机和超级计算机的主要处理器。其中通用图形处理器GPGPU(GeneralPropose Computing on GPU)常用于数据密集的科学与工程计算中。英伟达与AMD仍占据GPU霸主地位,2018年至今,国产GPU也积极发展中,已有部分

24、产品落地。增加计算资源密度提高存储体系性能和功能亿欧智库亿欧智库:CPUCPU和和GPUGPU对比对比亿欧智库亿欧智库:GPUGPU体系的发展趋势体系的发展趋势CG(C for Graphics)CG(C for Graphics):为GPU编程设计的高级绘制语言,由NVIDIA和微软联合开发,微软版本叫HLSL,CG是NVIDIA版本。CUDACUDA(ComputeUnified DeviceArchitecture,统一计算架构):由NVIDIA所推出的一种集成技术,是首次可以利用GPU作为C-编译器的开发环境。可以兼容OpenCL或者自家的C-编译器。ATIStreamATIStrea

25、m:AMD针对旗下图形处理器(GPU)所推出的通用并行计算技术。利用这种技术可以充分发挥AMDGPU的并行运算能力,用于对软件进行加速或进行大型的科学运算。OpenCLOpenCL(Open Computing Language,开放计算语言):为异构平台编写程序的框架,此异构平台可由CPU,GPU或其他类型的处理器组成。增强通信能力和可靠性降低功耗CPUGPU浮点计算能力110运算方式串行并行带宽内存带宽小高显存带宽延迟通过大的缓存保证访问内存的低延迟。直接访问显存因此延时较长。GPUGPU计算计算适用场景适用场景运算密集高度并行控制简单分多个阶段执行ALU:算数逻辑单元DRAM:动态随机存

26、取存储器Cache:高速缓冲存储器Control:控制单元ASICASIC与与FPGA:AIFPGA:AI芯片领域芯片领域“兵家必争之地兵家必争之地”17来源:公开资料,亿欧智库整理FPGA全称是Field Programmable Gate Array:可编程逻辑门阵列,是一种“可重构可重构”芯片,具有模块化和规则化的架构,主要包含可编程逻辑模块、片上储存器及用于连接逻辑模块的克重购互连层次结构。在较低的功耗下达到GFLOPS数量级的算力使之成为并行实现人工神经网络的替代方案。ASIC(Application-Specific Integrated Circuit)是指应特定用户要求和特定电

27、子系统的需要而设计、制造的集成电路。ASIC从性能性能、能效能效、成本成本均极大的超越了标准芯片,非常适合适合AIAI计算计算场景,是当前大部分AI初创公司开发的目标产品。功能描述电路设计与输入功能仿真综合优化综合后仿真实现与布局布线时序仿真板级仿真与验证调试与加载配置静态时序分析(STA)功能描述模块划分模块编码输入模块级仿真验证系统集成系统仿真验证综合静态时序分析形式验证物理设计(布线等)等价性检验FPGAFPGAASICASICASIC设计中往往要用到FPGA进行原型验证亿欧智库:芯片设计流程与设计优势对比亿欧智库:芯片设计流程与设计优势对比可加速上市进程可加速上市进程:开发时间较短,且

28、无需布局、掩膜等制造步骤。非提前支付的一次性开支非提前支付的一次性开支:这些均是ASIC设计中需要的开支。更简化的设计周期更简化的设计周期:可通过设计软件处理布线、布局及时序等问题。更具预测性的项目周期更具预测性的项目周期:消除了潜在的重新设计和晶圆容量等。现场可重编功能现场可重编功能:可以远程上传的新比特流,通过软件实现自定义硬件功能。完整的定制功能完整的定制功能与更小更小的尺寸的尺寸:由于器件是根据设计的规格进行生产的(注:ASIC芯片也分为全定制和半定制)。更低的器件成本更低的器件成本:实现大批量设计与生产,批量越大,成本越低。高性能、低功耗高性能、低功耗:ASIC芯片相当于将AI算法“

29、硬件化”,特定算法下能效更高。可形成可形成IPIP核复用核复用:模块化的设计方法,可根据设计需要进行IP选取。ASICASIC与与FPGAFPGA:功能与市场定位不同,竞争关系不明显:功能与市场定位不同,竞争关系不明显18来源:公开资料,亿欧智库整理FPGA具有开发周期短,上市速度快,可配置性等特点,目前被大量的应用在大型企业的线上数据处理中心线上数据处理中心和军工单位军工单位。ASIC一次性成本远远高于FPGA,但由于其量产成本低,应用上就偏向于消费电子消费电子,如移动终端等领域。目前,处理器中开始集成FPGA,也出现了可编程的ASIC,同时,随着SoC的发展,两者也在互相融合。批量价格走势

30、亿欧智库亿欧智库:ASIC&FPGA ASIC&FPGA 技术与商业化对比技术与商业化对比性能与能效性能与能效灵活性与部署能力灵活性与部署能力价格价格容量容量FPGAFPGAFPGAFPGAASICASICASICASIC技术技术商业商业亿欧智库:亿欧智库:ASIC&FPGAASIC&FPGA总体对比总体对比FPGAASIC运算速度较低,FPGA结构上的通用性必然导致冗余;另外,不不同结构间的时延也不可忽略。较高,结构上无特殊限制,设计时也可将特定模块靠近减少延迟芯片规模实现相同的功能时,需要更大的FPGA实现相同的功能时,ASIC的规模更小功耗相同工艺条件下,功耗更大相同工艺条件下,功耗更小

31、成本几乎无开发工具和风险,主要成本都在单片上。由于进入生产后硬件不可更改,开发工具和流片过程可能产生大量成本运行过程加载配置进入存储器需要时间可立即运行产品定位适用于项目产品需要灵活变动等方面的产品及产品要求快速占领市场的情况适用于设计规模较大,或应用成熟的产品如消费电子等发展方向大容量、低电压、低功耗、SoC更大规模、IP复用技术、SoC亿欧智库:亿欧智库:ASIC&FPGAASIC&FPGA成本对比成本对比基于不同硬件实现方式的基于不同硬件实现方式的AIAI芯片:系统级芯片芯片:系统级芯片19在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoCSoC上的一个IP实现。SoC(

32、System-on-chip,片上系统)作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基础,集软、硬件于一体的集成芯片集成芯片。在一个芯片上实现信号的传输、存储、处理和I/O等功能,包含嵌入软件及整个系统的全部内容。由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。来源:公开资料,亿欧智库整理亿欧智库亿欧智库:SoCSoC整体架构整体架构BUSBUSCPUCPU系统控制模块系统控制模块各种接口各种接口外部存储器外部存储器控制器控制器EMIEMI设计设计制造制造封装封装测试测试软硬件协同设计芯片硬件设计:包括功能设计阶段、设计描述和行为级

33、验证、逻辑综合、门级_x0008_验证和布局与布线。核心挑战:IPIP复用复用亿欧智库亿欧智库:SoCSoC的优势的优势亿欧智库亿欧智库:SoCSoC产业发展趋势产业发展趋势降低耗电量降低耗电量:SoC多采用内部讯号的传输,大幅降低功耗。减少体积减少体积:数颗IC整合为SoC,有效缩小电路板上占用的面积。丰富系统功能丰富系统功能:可整合更多的功能元件和组件,丰富系统功能。提高速度提高速度:内部信号传输距离缩短,信号传输效率提升。节省成本节省成本:IP复用,有效减少研发成本,降低研发时间。平台化设计平台化设计:有效提高设计生产力从而应对由应用面导致的市场区隔的细化。供应链之间合作加强供应链之间合

34、作加强:IC设计、IC制造、封装、测试、半导体设备、IP、IC设计服务与EDA业者等,牵连到的各产业部门非常广泛,合作将进一步加强。分工将更加明确分工将更加明确:SoC行业或将分为IP核设计和系统级集成两部分。流程流程技术技术与与挑战挑战与芯片制造流程相同,包含晶圆制造、光刻、掺杂等流程。核心挑战:克服不同电路区块之克服不同电路区块之间制程相容性问题间制程相容性问题,即迁就微缩进展较慢的功能区块或在成本上找到平衡。打线为主的传统封装己无法满足需要,晶片级封装晶片级封装及I/OI/O高脚位锡高脚位锡球封球封、CSPCSP(Chip Scale Packaging)等将是未来SOC封装技术的主流。

35、核心挑战:更多的端口数目更多的端口数目。SoC趋势下,测试机台走向多多功能单一机型功能单一机型,测试各种逻辑、模拟与存储电路。核心挑战:SoC设计中的多样多样性性使得验证更加困难。亿欧智库亿欧智库:SoCSoC芯片制造流程芯片制造流程基于不同计算范式的基于不同计算范式的AIAI芯片:类脑芯片芯片:类脑芯片20来源:公开资料,亿欧智库整理CPU/GPU/GFPGA/ASIC及SoC是目前用的较多的AI芯片,此类AI芯片大多是基于深度学习,也就是深度神经网络(深度神经网络(DNNDNN),以并行方式进行计算的芯片,此类AI芯片又被称为深度学习加速器深度学习加速器。如今,模仿大脑结构的芯片具有更高的

36、效率和更低的功耗,这类基于神经形态计算,也就是脉冲神经网络(脉冲神经网络(SNN)SNN)的芯片为类脑芯片类脑芯片。目前,部分企业产品已进入小批量试用阶段,类脑芯片最快将于20232023年年成熟,能效比有望较当前芯片提高2-3个数量级。亿欧智库:中国类脑芯片发文数量亿欧智库:中国类脑芯片发文数量(2014-2022.012014-2022.01)DNNSNN训练方式需大量数据单个数据样本学习方式监督学习无监督学习输入类型图像帧或数据阵列脉冲时延高极低(接近实时)神经元模型复杂程度低高功耗由处理器与储存器存取决定由每个事件功耗决定分类精度较高较低分类速度低高较研究阶段较成熟探索及部分小规模试用

37、阶段亿欧智库亿欧智库:DNNDNN与与SNNSNN对比对比亿欧智库:类脑芯片的亿欧智库:类脑芯片的硬件实现方式硬件实现方式忆阻器忆阻器:在紧凑性、可靠性、耐用性、存储器保留期限、可编程状态和能效等方面的特性,有利用成为电子突触器件。自旋电子器件自旋电子器件:其不易失性、可塑性及振荡和随机行为,允许创建模仿生物突触和神经元关键特征的组件。光子器件光子器件:利用半导体放大器中使用的非线性光学增益介质,实现神经形态计算所需的功能。电化学器件电化学器件:具有高精度、现行和对称的电导效应,低开关能量和高扩展性,使用于SNN的内置定时机制。二维材料二维材料:包括过渡金属二硫族化合物、石墨烯等,可开发成为人

38、工突触。.21来源:公开资料及专家访谈,亿欧智库整理现在用于深度学习的AI芯片(包括CPU、GPU、FPGA、ASIC)为了实现深度学习的庞大乘积累加运算和并行计算的高性能,芯片面积越做越大,带来了成本和散热等问题。AI芯片软件编程的成熟度、芯片的安全,神经网络的稳定性等问题也未能得到很好的解决,因此,在现有基础上进行改进和完善此类AI芯片仍是当前主要的研究方向。最终,AI芯片将近一步提高智能,向着更接近人脑的高度智能方向不断发展,并向着边缘逐步移动以获得更低的能耗。AIAI芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向亿欧智库亿欧智库

39、:AIAI芯片功耗芯片功耗功耗(W)10001001010.10.010.0010.00010.00001云端云端边缘边缘自供电、生物接口等新型芯片物联网AI芯片嵌入式专用AI芯片FPGAAI SoC车用ASICCPU云端ASICGPU人人工工智智能能芯芯片片发发展展趋趋势势AIAI芯片芯片可实现的功能可实现的功能人类特征人类特征传感器AI芯片感知:视觉、听觉、触觉等人体类脑芯片及深度类脑芯片及深度学习芯片学习芯片识别、分类、决策、预测、分析、推理人脑未来带意识、带自主性的芯片情感、想象力、创造力等人性亿欧智库亿欧智库:AIAI芯片与人类智能芯片与人类智能22来源:公开资料及专家访谈,亿欧智库

40、整理AI硬件加速技术已经逐渐走向成熟。未来可能更多的创新会来自电路和器件级技术的结合,比如存内计算存内计算,类脑计算类脑计算;或者是针对特殊的计算模式或者新模型,比如稀疏化计算和近似计算近似计算,对图网络的加速;或者是针对数据而不是模型的特征来优化架构。同时,如果算法不发生大的变化,按照现在AI加速的主要方法和半导体技术发展的趋势,或将在不远的将来达到数字电路的极限(约1到10TFlops/W),往后则要靠近似计算近似计算,模拟计算模拟计算,甚至是材料或基础研究上的创新。标准芯片标准芯片专用芯片(专用芯片(ASIC)多核CPUGPUFPGA数字芯片模拟芯片超导芯片深度学习深度学习神经形态神经形

41、态计算计算自然计算、自然计算、仿生计算、仿生计算、储备池计储备池计算算量子计算量子计算亿欧智库:计算范式及其硬件实现方法亿欧智库:计算范式及其硬件实现方法存内计算存内计算模拟计算模拟计算核心问题核心问题:传统冯诺伊曼架构中,计算与内存是分离的单元,内存主要使用的DRAM方案性能提升速度远远慢于处理器速度,造成了阻碍性能提升的“内存墙内存墙”,直接在存储内做计算可有效解决。实现方法实现方法:1)改动存储模块电路改动存储模块电路:优势是容易和现有工艺进行集成,缺点是带来的性能提升有限;2)引入引入新的存储器件新的存储器件,实现在存储阵列内完成计算。量子计算量子计算AIAI芯片发展:计算范式创新方向

42、及其硬件实现芯片发展:计算范式创新方向及其硬件实现核心问题核心问题:传统模拟架构通过模数/数模转换器将模拟信号与数字表示形式进行相互转换,带来信号损耗信号损耗、功率功率消耗消耗和时延时延。实现方法实现方法:在AI芯片中使用模拟计算技术,将深度学习深度学习算法运算放在模拟域内完成算法运算放在模拟域内完成,提高能效。核心问题核心问题:AI计算对大算力算力的需求。实现方法实现方法:完全新型的计算模式完全新型的计算模式,理论模型为图灵机。从计算效率上,由于量子力学叠加性,配合量子力学演化的并行性,处理速度远超传统计算机,提供更强算力。02.应用层面应用概况:算力向边缘侧移动,逐渐专注于特殊场景的优化应

43、用概况:算力向边缘侧移动,逐渐专注于特殊场景的优化来源:广州超算中心、寒武纪、特斯拉、大华、歌尔股份、华为官网、公开资料,亿欧智库整理随着技术成熟化,AI芯片的应用场景除了在云端及大数据中心,也会随着算力逐渐向边缘端移动,部署于智能家居、智能制造、智慧金融等领域;同时还将随着智能产品种类日渐丰富,部署于智能手机、安防摄像头、及自动驾驶汽车等智能终端,智能产品种类也日趋丰富。未来,AI计算将无处不在。亿欧智库亿欧智库:AIAI芯片应用领域芯片应用领域云端训练云端训练云端推理云端推理边缘计算边缘计算终端设备终端设备可部署芯片可部署芯片:GPU/GPU/ASIC芯片特征芯片特征:高吞吐量、高精确率、

44、可编程性、分布式、可扩展性、高内存与带宽计算能力与功耗计算能力与功耗:30TOPS,50W应用应用:云/HPC/数据中心可部署芯片可部署芯片:GPU/GPU/ASIC/FPGA芯片特征芯片特征:高吞吐量、高精确率、分布式、可扩展性、低延时计算能力与功耗计算能力与功耗:30TOPS,50W应用应用:云/HPC/数据中心可部署芯片可部署芯片:GPU/GPU/ASIC/FPGA芯片特征芯片特征:降低AI计算延迟、可单独部署或与其他设备组合(如5G基站)、可将多个终端用户进行虚拟化、较小的机架空间、扩展性及加速算法计算能力与功耗计算能力与功耗:530TOPS,415W应用应用:智能制造、智慧家居、智慧

45、交通等、智慧金融等众多领域可部署芯片可部署芯片:GPU/GPU/ASIC/FPGA芯片特征芯片特征:低功耗、高能效、推理任务为主、较低的吞吐量、低延迟、成本敏感计算能力与功耗计算能力与功耗:8TOPS,5W应用应用:各类消费电子,产品形态多样;以及物联网领域24云端:当前仍是云端:当前仍是AIAI的中心,需更高性能计算芯片以满足市场需求的中心,需更高性能计算芯片以满足市场需求来源:中金研究院、IDC、公开资料,亿欧智库整理当前,大多数AI训练和推理工作负载都发生在公共云和私有云中,云仍是云仍是AIAI的中心的中心。在对隐私、网络安全和低延迟的需求推动下,云端出现了在网关、设备和传感器上执行AI

46、训练和推理工作负载的现象,更高性能的计算芯片高性能的计算芯片及新的AI学习架构将是解决这些问题的关键。互联网是云端算力需求较旺盛产业,因此除传统芯片企业、芯片设计企业等参与者外,互联网公司互联网公司纷纷入局AI芯片产业,投资或自研云端AI芯片。亿欧智库:云端亿欧智库:云端AIAI芯片框架芯片框架AI服务深度学习框架(PaaS)异构计算平台AI加速芯片 “CPU+加速硬件”异构计算 GPU语音识别 深度学习训练/推理自然语言处理计算机视觉OpenCL CUDATensorFlowCNTK Torch亿欧智库:亿欧智库:20212021中国人工智能算力投资行业分布中国人工智能算力投资行业分布25亿

47、欧智库:中国云端亿欧智库:中国云端AIAI芯片参与者芯片参与者芯片设计芯片设计芯片代工芯片代工IPIP设计设计互联网企业互联网企业百度 昆仑芯一代/二代芯片)飞桨平台阿里巴巴 含光NPU AI芯片/玄铁CPU 无剑SoC平台字节跳动、腾讯、快手等也投资或孵化了芯片企业。边缘侧:数据向边缘下沉,随着行业落地市场将有很大增量边缘侧:数据向边缘下沉,随着行业落地市场将有很大增量来源:边缘计算与云计算协同白皮书、google学术及公开资料、亿欧智库整理5G与物联网的发展以及各行业的智能化转型升级,带来了爆发式的数据增长。海量的数据将在边缘侧积累,建立在边缘的数据分析与处理将大幅度的提高效率提高效率、降

48、低成本降低成本。随着大量的数据向边缘下沉,边缘计算将有更大的发展,IDC预测,未来,超过50%的数据需要在边缘侧进行储存、分析和计算,这就对边缘侧的算力提出了更高的要求。芯片作为实现计算能力的重要基础硬件,也将具备更多的发展。ABI Research预测,2025年,边缘AI芯片市场将超过云端AI芯片。在人工智能算法的驱动下,边缘AI芯不但可以自主进行逻辑分析与计算,而且可以动态实时地自我优化,调整策略,典型的应用如黑灯工厂黑灯工厂等。亿欧智库:边缘计算在数据处理中的位置亿欧智库:边缘计算在数据处理中的位置物联网物联网(物理世界)(物理世界)边缘计算边缘计算(桥梁)桥梁)人工智能人工智能(数字

49、世界)(数字世界)大量设备要求低延时、高带宽智能化突出本地协同高计算效率实现数据的存储、计算与应用DataData亿欧智库:边缘计算的价值亿欧智库:边缘计算的价值:“CROSSCROSS”C C:Connection即联接海量设备。支持多个终端用户的虚拟化。R R:Real-time即业务的实时性。可以实现毫秒级的响应时间,支持实时服务。O O:Optimization即数据的优化。在边缘积累数据,实现数据的感知和归一化。S S:Smart即应用的智能化。通过人工智能实现自我优化和策略调整等。S S:Security即安全与隐私保护,数据本地化存储,有效保障用户隐私。亿欧智库:边缘计算发展历程

50、亿欧智库:边缘计算发展历程技术储备阶段快速增长阶段行业落地阶段亿欧智库:边缘计算主要场景亿欧智库:边缘计算主要场景物联网边缘计算广域接入网络边缘计算边缘云多接入边缘计算工业边缘计算智慧家庭/城市边缘计算26 终端设备:终端产品类型逐渐多样,出货量增加催生大量芯片需求终端设备:终端产品类型逐渐多样,出货量增加催生大量芯片需求来源:黑芝麻、大华、小米官网,公开资料、亿欧智库整理根据亿欧数据测算,中国自动驾驶行业规模增速在2022年将达到24%24%;智能摄像头产品出货量增速超15%15%;手机、平板、VR/AR眼镜等智能产品出货量也均有较大增速,催生出大量的智能芯片需求。同时,智能终端产品种类也逐

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 实用范文 > 工作总结

copyright@ 2008-2023 wnwk.com网站版权所有

经营许可证编号:浙ICP备2024059924号-2