收藏 分享(赏)

深度学习技术的发展及应用_陆明亮.pdf

上传人:哎呦****中 文档编号:2737816 上传时间:2023-10-13 格式:PDF 页数:3 大小:996.57KB
下载 相关 举报
深度学习技术的发展及应用_陆明亮.pdf_第1页
第1页 / 共3页
深度学习技术的发展及应用_陆明亮.pdf_第2页
第2页 / 共3页
深度学习技术的发展及应用_陆明亮.pdf_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

1、Application 创新应用322 电子技术 第 52 卷 第 2 期(总第 555 期)2023 年 2 月性,其中一层的特征以多种不同的方式进行组合,因此在下一层能够创建更多的抽象特征。与相同参数数量的浅层网络相比,深度网络通常具有更好的特征提取和泛化推广能力。2 深度学习技术的发展 2.1 深度学习技术的研究进展计算机领域最高奖项图灵奖获得者GeoffreyHinton、YoshuaBengio和YannLeCun等人,在推动深度学习技术的发展上做出了不可磨灭的突出贡献。虽然业界普遍认为真正意义上的深度学习研究和应用是从2006年开始的,但是此前相关原始技术的积累不容忽视。深度学习技

2、术经历了较长的发展历程,本文仅从部分具有代表性的研究进展进行梳理展现。1958年,弗兰克罗森布拉特发明了感知机,作为一个非常简单的二元分类器,成为当今智能机器的起源。在此基础上,后续产生了多层感知机(MLP),主要在图像识别方面展现了一定潜力。1982年至1986年,用于处理序列数据的循环神经网络(RNN)开始出现。1998年,第一个卷积神经网络架构LeNet-5出现,主要用于文档识别,当时人们对其进行了商业化部署,每天可以读取数百万张支票。同年,可以处理长序列的循环神经网络版本“长短期记忆”(LSTM)出现,它是适合各0 引言深度学习是当前最流行的科研趋势之一,它为机器学习和计算机视觉、自然

3、语言处理、人工智能等带来了革命性的进步。随着相关理论知识不断丰富完善,中央处理器(CPU)和图形处理器(GPU)等硬件性能快速提升,以及网络模型算法的大量创新应用,深度学习技术获得突飞猛进的发展。与此同时,发展过程中的瓶颈问题也逐步凸显,如何紧跟其未来发展方向,打通相关技术“堵点”,实现深度学习技术更好的实践应用,成了摆在人们面前需要思考解决的问题。1 深度学习技术 深度学习(Deep Learning)是机器学习的一个分支,是一种以人工神经网络为架构,对数据进行表征学习的算法1。2006年,加拿大多伦多大学Geoffrey Hinton教授开创性地提出了深度信念网络以及逐层贪心算法,为深度网

4、络长期以来难以训练的局面提供了有效的解决方案。以此为标志性起点,深度学习的研究和应用开始走进人们的视野,并且逐步成为人工智能领域的研究热点和主流发展方向。深度学习作为一种深层的机器学习模型,“深”主要体现在更深层次的神经网络和对特征的多次变换上。深度网络利用一种特定形式的组合作者简介:陆明亮,空军预警学院;研究方向:装备研究与试验论证。收稿日期:2022-11-07;修回日期:2023-02-12。摘要:阐述深度学习技术的特点、研究进展、瓶颈问题,以及技术发展的趋势,包括小样本学习、迁移学习、无监督学习、多模态多任务学习,探讨深度学习技术在计算机视觉、自然语言处理、多模态与多任务学习中的应用。

5、关键词:人工智能,深度学习,小样本学习,迁移学习,多模态多任务。中图分类号:TP183文章编号:1000-0755(2023)02-0322-03文献引用格式:陆明亮.深度学习技术的发展及应用J.电子技术,2023,52(02):322-324.深度学习技术的发展及应用陆明亮(空军预警学院,湖北 430019)Abstract This paper expounds the characteristics,research progress,bottleneck problems and technological development trend of deep learning tech

6、nology,including small sample learning,transfer learning,unsupervised learning,multimodal and multi-task learning,and discusses the application of deep learning technology in computer vision,natural language processing,multimodal and multi-task learning.Index Terms artificial intelligence,deep learn

7、ing,small sample learning,transfer learning,multimodal multitasking.Development and Application of Deep Learning TechnologyLU Mingliang(Air Force Early Warning Academy,Hubei 430019,China.)Application 创新应用电子技术 第 52 卷 第 2 期(总第 555 期)2023 年 2 月 323种序列任务的神经网络架构,如语音识别、文本分类、情感分析、机器翻译等。2007年至2009年,斯坦福大学教授李

8、飞飞为了解决机器学习过程中的过拟合和泛化问题,牵头构建并发布了ImageNet数据集,直到目前该数据集仍然是深度学习领域中图像分类、检测、定位的常用数据集之一。从2010年开始至2017年结束,基于ImageNet数据集的ILSVRC等一些大规模视觉识别挑战赛的兴起,一定程度上促进了神经网络和深度学习技术的发展。自2011年以来,Microsoft和Google的研究人员,就在语音识别上通过应用深度学习技术,大幅度地降低了20%-30%的识别错误率2。2012年,Alex Krizhevsky等人在图片分类比赛ImageNet中,通过深度学习方式使图片识别的错误率大幅下降了14%3。2012年

9、6月,以Jeff Dean和AndrewNg等人为主导的GoogleBrain项目4,通过采用数量众多的CPU组合的方式,来构建一个层次很深的神经网络,并在图像和语音识别方面进行应用,最终取得了非常突出的效果。2013年,Bengio等人从表征学习角度,概述了深度学习算法监督和无监督网络、优化和训练模型。2014年,LanGoodfellow提出了生成对抗网络(GAN),该模型因性能优越迅速成为一大研究热点。同年Google团队提出GoogLeNet网络,斩获当年ImageNet竞赛Classification Task(分类任务)第1名。与此同时牛津大学计算机视觉组和谷歌DeepMind团队

10、共同提出的VGGNET网络,在ImageNet大规模视觉识别挑战赛ILSVRC-2014中获得亚军。2015年,LeCun等人从卷积神经网络和递归神经网络概述了深度学习模型。同年KaimingHe等人提出了经典的残差网络结构(ResNet),有效解决了深度神经网络随着网络层次加深带来的梯度下降和网络退化问题。同年谷歌DeepMind团队提出的DQN深度强化学习算法,在很多电动游戏中达到甚至超越了人类玩家的水准。同年,人们通过采取Batch Normalization(批标准化)的数据处理方法,在深度神经网络训练过程中使每一层神经网络的输入保持相同分布,简化了调参过程,增加了分类效果,同时也极大

11、提高了训练速度,模型的收敛过程大大加快。2016年,谷歌旗下的DeepMind团队组织“阿尔法围棋”(AlphaGo)与世界顶级围棋选手之一李世石进行了举世瞩目的人机大战,最终AlphaGo以总比分4:1打败了围棋大师李世石。次年,DeepMind团队在自然发表论文,公布了最强版“阿尔法围棋”,代号是AlphaGo Zero,其具备了比上一代更加强大的性能。2017年,Young等人提出了主要用于自然语言处理(NLP)的深度学习模型和架构5。2018年,Google公布的BERT模型,在11项自然语言处理任务中展现出卓越的表现,将自然语言处理带入了一个新纪元。2019年,李飞飞及其斯坦福计算机

12、视觉实验室6提出了基于深度学习的神经网络架构搜索实现语义分割。尤其值得一提的是,2019年由OpenAI 组织研发的人工智能OpenAI Five,与世界冠军王者OG战队,在多人电子竞技游戏DOTA2 7.21版本上进行了人机对抗比赛,最终人工智能以2:0战胜人类,OpenAI Five因此成为当时深度强化学习领域最具有代表性的顶尖作品,较好体现了当时深度学习技术的发展成就。在最近的几年中,相关领域研究人员基于深度学习技术也提出了多种思路理念和模式方法创新,如软注意力(soft attention)和Transformer架构等,深度学习技术依然处于炙手可热的研究发展进程中。2.2 深度学习技

13、术发展中的瓶颈问题 深度学习技术展现了很好的前景,同时在其发展过程中,也还存在一些瓶颈问题需要解决:一是有时数据资源受限。由于深度学习能够得以实现的前提,是拥有大量经过标注的数据,虽然目前大数据发展迅猛,但是在研究和工作实践上,相关数据的采集、数据的隐私和安全、数据的标注等等,都还需要耗费大量的人力、时间和资源。二是容易过度拟合基准数据。有的深度神经网络在基准数据集上训练测试效果很好,但是离开基准数据应用到真实世界相关场景时,往往会产生较大的偏差,也就是说网络模型泛化能力不强,而对网络进行整体优化的难度较大。三是不可解释性可能带来不确定性。与深度学习有所不同,经典的机器学习能以严格的理论支撑其

14、算法,以保证其准确性,而深度学习重点只关注“输入”和“输出”,而对中间的具体过程无法介入,相当于“黑箱操作”,缺乏明确的理论支撑,过程不透明导致结果可能也是不确定的,这样无疑会带来不可预估的风险。四是常规算力提升和普及运用还有差距。CPU和GPU等硬件的发展和运用,大大提升了深度神经网络算法的运算效果,但是这对芯片性能的提升带来了挑战。因受到各种因素的制约,目前各种移动端的人工智能芯片需求很大,但是相关企业由于受到技术和成本的限制,能提供的产品和服务支持有限。2.3 深度学习技术的发展趋势在深度学习当前及未来发展上,虽然当前深度学习还有很多问题没有解决,但是其依然在很多行业落地得到广泛运用。未

15、来的研究发展方向,除了加强深度学习理论本身的研究探索,在实际应用上必然是和其他的行业技术进行深度融合,共同推动技术进步和行业发展。具体来看,包括但不仅限于以下几点。(1)小样本学习。人类的高级认知特点之一是能够见微知著,有时只通过极少量的样本就能识别一个新的物体。目前的深度学习与此不同,往往Application 创新应用324 电子技术 第 52 卷 第 2 期(总第 555 期)2023 年 2 月需要通过对大量的数据样本进行学习才能做到。为了达到和人类智能一样的效果,那么“学会学习”就成了深度学习当前需要重点研究解决的问题,很多研究人员对此类小样本学习正在进行研究,也形成了基于度量学习、

16、元学习等等方案,下步必然会有更多的理论和方法创新被提出来。(2)迁移学习。该方法运用已有的知识来学习新的知识,其核心就是找到已有知识和新知识之间的相似性,利用这个桥梁来帮助学习新知识,并通过将已经习得“经验”中的相关知识进行转移,推广应用到其他新的任务上。迁移学习主要适用于数据样本较少或者大部分数据未标注、需要进行算法冷启动、需要获取更强的泛化能力,以及数据来自不同的分布等应用场景。由于迁移学习能一定程度上解决数据依赖的问题,因此使得深度学习算法能在其他领域得到更加广泛的应用。(3)无监督学习。目前大部分的深度学习模型的训练,需要人工对相关数据样本进行标注操作,也即监督学习。由于现实环境下大多数的数据本身都没有“自带”所需的标签,加上进行样本标注的成本很高且费时费力,因此不需要人工注释数据的无监督学习技术越来越受到人们的欢迎。近年来,在大型语言模型(LLM)等领域,无监督学习技术取得了有效进展。如Google的Imagen和Stability AI的Stable Diffusion、OpenAI的DALL-E2等模型,使用的就是网上已有的未标注样本的大型数据集,展现了无监督学习的优势和

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 专业资料 > 其它

copyright@ 2008-2023 wnwk.com网站版权所有

经营许可证编号:浙ICP备2024059924号-2