抱歉,您的浏览器无法访问本站
本页面需要浏览器支持(启用)JavaScript
了解详情 >

开坑记录一下学习人工智能(深度学习为主)的笔记,方便以后回顾学习~整理自点头教育

人工智能的趋势展望

1. 前沿技术

Transformer模型

基于自注意力机制,有效提高模型训练效率

由Google的Ashish Vaswani等人和多伦多大学的Aidan N.Gomez于2017年首次提出,是一种基于自注意力机制(在Transformer模型中起基础作用,可减少对外部信息的依赖,更擅长捕捉数据或特征的内部关系,优化模型训练结果)的深度学习模型,该模型主要由编码器和解码器构成,模型本身并行度较高,在精度和性能上均要优于传统的循环神经网络(RNN)和卷积神经网络(CNN)。Transformer模型在简单语言问答和语言建模任务上有着较好表现。

BERT模型

基于Transformer Encoder构建的预测模型

由Google于2018年提出,是基于Transformer Encoder构建的一种模型。模型基本思想:给定上下文来预测下一个词。BERT模型架构是由多接口组成的Transformer编码器层,即全连接神经网络增加自注意力机制。对于序列中的每个输入标记,每个接口计算键值和查询向量,相关向量用于创建加权表示,合并同一层中所有接口输出并通过全连接层运行。每个层使用跳跃连接进行包装,之后将层归一化处理。

自监督学习

将无监督问题转化为有监督问题的方法

旨在对于无标签数据,通过设计辅助任务来挖掘数据自身的表征特性作为监督信息,来提升模型的特征提取能力,将无监督问题转化为有监督问题的方法。

说到自监督就顺便说下有监督学习无监督学习,有监督给定的结果是确定的;无监督是实际应用场景中最多的,结果不确定,根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题。

类脑计算

模拟大脑结构和信息加工过程,提高机器认知能力、降低运行功耗

类脑计算(Brain-Inspired Computing): 又称神经形态计算,是借鉴生物神经系统信息处理模式和结构的计算理论、体系结构、芯片设计以及应用模型与算法的总称。类脑计算可模拟人类大脑信息处理方式,以极低的功耗对信息进行异步、并行、高速和分布式处理,并具备自主感知、识别和学习等多种能力,是实现通用人工智能的途径之一。

AI大模型

包含万亿量级参数的预训练模型,显著降低模型训练成本

AI大模型(Foundation Models):是指经过大规模数据训练且在经微调后即可适应广泛下游任务的模型。随着参数规模不断扩大,AI大模型在语言、视觉、推理、人机交互等领域涌现出新能力。

2. 人工智能的产业融合

人工智能与元宇宙

元宇宙(Metaverse):本质上是对现实世界的虚拟化、数字化过程,其主要包括基础设施、人机交互、空间计算等七层架构,其中计算机视觉、AI芯片和嵌入式AI等人工智能技术及基础设施共同助力元宇宙加速落地。元宇宙涵盖芯片、云计算、技术平台、通信、智能设备、内容服务等庞大生态系统。

人工智能与生命科学

AlphaFold是由谷歌旗下DeepMind团队基于深度学习算法的蛋白质结构预测的人工智能系统,其被视作人工智能深入到生物领域的一大突破。目前AlphaFold已对98.5%的人类蛋白质结构做出预测,此外还对于大肠杆菌、果蝇、斑马鱼、小鼠等研究时常用生物的蛋白质结构进行预测。(这块比较感兴趣,有空继续了解一下)

人工智能与新冠疫情

Eva是用于检测入境旅客新冠病毒的强化学习系统,其由美国南加州大学、美国宾夕法尼亚学、AgentRisk以及希腊相关专家合作开发。

2020年,Eva系统被部署到希腊所有入境口岸(机场、港口、车站等),用于识别限制新冠无症状旅客入境。(这里存疑,用算法确定新冠受检者,虽然在一定程度上能缓解新冠检测用品有限的不利情况,但是无疑会漏掉部分入境的可能感染者,一旦感染爆发得不偿失)

人工智能与半导体

AI与EDA紧密融合,促使芯片PPA结果更加稳定

为使PPA优化结果更佳,同时为应对芯片安全性需求提升、设计规模攀升及工艺节点微缩等趋势,EDA厂商开始利用AI技术解决半导体芯片设计问题。在EDA中,数据快速提取模型、布局和布线、电路仿真模型、 PPA优化决策等环节均有AI技术参与。

人工智能与碳中和

人工智能在预测、监测、优化三大环节赋能碳中和

当前,碳中和已获得全球超过40个国家和地区承诺,其中大部分国家宣布将于2050年左右实现碳中和目标。从整体来看,人工智能将从预测、监测、优化三大环节助力碳中和,如预测未来碳排放量、实时监测碳足迹、优化工作流程等。

人工智能与冬奥会

2022年2月,第24届冬季奥林匹克运动会成功在北京举办。人工智能技术在冬奥会开幕式、比赛项目、运动员训练等多个场景实现应用,助力科技冬奥目标实现。

3. 人工智能产业发展的路径探究

人工智能在“科研成果—商业化落地”过程中依然存在诸多挑战

伦理与安全

人工智能发展面临隐私保护与算法合规使用等方面挑战

随着人工智能技术的高速发展与普及应用,由其产生的伦理与安全问题日益受到关注。人工智能不但延续信息技术的伦理问题,又因深度学习算法具有不透明、难解释、自适应、运用广泛等特征而在基本人权、社会秩序、国家安全等方面产生新问题。

国家间技术限制

国家间技术限制阻碍人工智能技术进步

当前,开源深度学习框架、开源工具集、开源应用软件快速发展,国际间AI技术交流不断深入,但部分国家和政府间组织为保持自身AI 技术优势,限制AI技术交流。如美国在2021年6月发布《创新与竞争法案》,在AI、无人机、芯片等多个领域限制与中国合作;美国商务部于2019年10月和2020年5月将商汤科技、科大讯飞等多家中国AI公司加入其实体清单,实施投资限制;2022年白宫修订“关键和新兴技术(CET)清单”,对AI技术具体分类并实行技术封锁。欧盟则于2021年9月通过最新出口管制法规,内容涵盖人脸识别等AI技术。

上述相关政策与未来人工智能发展趋势背道而驰,不利于各国开展技术合作。

深度学习算法部分内容

迁移学习

将知识由源域迁移至目标域,提高机器学习效率

迁移学习(Transfer Learning,TL):是一种机器学习方法,是把已训练好的模型参数迁移到新的模型来帮助新模型训练,其核心目标是将知识从源域迁移到目标域,让机器也可以做到“触类旁通”。

迁移学习的主要优点是节省模型训练时间,且在目标域训练数据不足时,模型仍能取得较好的性能。

迁移学习的训练框架可以概括为:1)选择源模型,从可用模型中挑选出预训练模型;2)重用模型,在目标域中使用源模型进行训练;3)调整模型。模型可以在目标数据集中对输入-输出进行选择性微调,以让其适应目标任务。

实现迁移学习的方式主要包括样本迁移、特征迁移、模型迁移。目前,迁移学习主要应用在计算机视觉自然语言处理等领域。

神经网络与卷积神经网络

神经网络

具有适应性简单单元组成的广泛并行互联网络

神经网络(Neural Network):由数千甚至数百万个紧密互连的简单处理节点组成,其主要包括输入层(输入数据)、中间层/隐藏层(学习复杂决策边界)和输出层(输出结果)。

神经网络可以用于回归,但主要应用于分类问题。如下图所示:输入层表示输入图像(64维向量),中间层使用Sigmoid等非线性函数对于输入层数据进行计算,输出层使用非线性函数对于中间层数据进行计算。

神经网络通过采取设置中间层的方式,利用单一算法学习各种决策边界,调节中间层数量以及层的深度,神经网络可学习更复杂的边界特征,而得出更加准确的结果。

卷积神经网络

图像识别为核心的深度学习算法

卷积神经网络(Convolutional Neural Network,CNN):由数千甚至数百万个紧密互连的简单处理节点组成,其主要包括输入层、卷积层、池化层、全连接层和输出层,适合处理图片、视频等类型数据

1980年,日本科学家福岛邦彦提出一个包含卷积层、池化层的神经网络结构。在此基础上,Yann Lecun将BP算法应用到该神经网络结构的训练上,形成当代卷积神经网络的雏形;1988年,Wei Zhang提出第一个二维卷积神经网络:平移不变人工神经网络(SIANN),并将其应用于检测医学影像;1998年Yann LeCun及其合作者构建了更加完备的卷积神经网络LeNet-5并在手写数字的识别问题中取得成功。

卷积层:图片输入转化成RGB对应的数字,然后通过卷积核做卷积,目的是提取输入中的主要特征,卷积层中使用同一卷积核对每个输入样本进行卷积操作;

池化层:作用在于减小卷积层产生的特征图尺寸(压缩特征映射图尺寸有助于降低后续网络处理的负载);

全连接层:计算激活值然后通过激活函数计算各单元输出值(激活函数包括Sigmoid、tanh、ReLU等)

输出层:使用似然函数计算各类别似然概率。

循环神经网络与图神经网络

循环神经网络

用于处理序列数据的神经网络

循环神经网络(Recurrent Neural Network,RNN):是一类以序列数据(指相互依赖的数据流,比如时间序列数据、信息性的字符串、对话等)为输入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的神经网络。目前,语言建模和文本生成、机器翻译、语音识别、生成图像描述、视频标记是RNN应用最多的领域

图神经网络

用于处理图结构数据的神经网络

图神经网络(Graph Neural Networks,GNN):将图数据和神经网络进行结合,在图数据上面进行端对端的计算,具备端对端学习、擅长推理、可解释性强的特点。

图神经网络发展出多个分支,主要包括图卷积网络、图注意力网络、图自编码器、图生成网络和图时空网络等。

图神经网络的训练框架如下:首先,每个节点获取其相邻节点的所有特征信息,将聚合函数(如求和或取平均)应用于这些信息。 聚合函数的选择必须不受节点顺序和排列的影响。之后,将前一步得到的向量传入一个神经网络层(通常是乘以某个矩阵),然后使用非线性激活函数(如ReLU)来获得新的向量表示。

目前,图神经网络在许多领域的实际应用中都展现出强大的表达能力和预测能力,如物理仿真、科学研究、生物医药、金融风控等

长短期记忆神经网络

在RNN中加入门控机制,解决梯度消失问题

长短期记忆神经网络(Long Short-Term Memory,LSTM):LSTM是一种特殊的循环神经网络(RNN)。传统RNN在训练中,随着训练时间的加长和层数的增多,很容易出现梯度爆炸或梯度消失问题,导致无法处理长序列数据,LSTM可有效解决传统RNN“长期依赖”问题。

LSTM由状态单元、输入门(决定当前时刻网络的输入数据有多少需要保存到单元状态)、遗忘门(决定上一时刻的单元状态有多少需要保留到当前时刻)、输出门(控制当前单元状态有多少需要输出到当前输出值)组成,以此令长期记忆与短期记忆相结合,达到序列学习的目的

LSTM应用领域主要包括文本生成、机器翻译、语音识别、生成图像描述和视频标记等。(我前一篇博客做的tts用了Tacotron2,其编码器模块中就引入了一个双向LSTM层)

自编码器

通过期望输出等同于输入样本的过程,实现对输入样本抽象特征学习

典型深度无监督学习模型包括自编码器受限波尔兹曼机生成对抗网络

自编码器(Autoencoder,AE):包括编码器和解码器两部分,其中编码器将高维输入样本映射到低维抽象表示,实现样本压缩与降维解码器将抽象表示转换为期望输出,实现输入样本的复现。自码器的输入与期望输出均为无标签样本,隐藏层输出则作为样本的抽象特征表示。

自编码器仅通过最小化输入样本与重构样本之间的误差来获取输入样本的抽象特征表示,无法保证自编码器提取到样本的本质特征。为避免上述问题,需要对自编码器添加约束或修改网络结构,进而产生稀疏自编码器、去噪自编码器、收缩自编码器等改进算法。

自编码器凭借其优异的特征提取能力,主要应用于目标识别、文本分类、图像重建等诸多领域。

生成对抗网络

生成对抗网络(Generative Adversarial Network,GAN):通过使用对抗训练机制对两个神经网络进行训练,避免反复应用马尔可夫链学习机制带来的配分函数计算,明显提高应用效率。

生成对抗网络包含一组相互对抗模型—判别器和生成器,判别器目的是正确区分真实数据和生成数据,使得判别准确率最大化,生成器是尽可能逼近真实数据的潜在分布。生成器类似于造假钞的人,其制造出以假乱真的假钞,判别器类似于警察,尽可能鉴别出假钞,最终造假钞的人和警察双方在博弈中不断提升各自能力。(同样是我前面一篇博客语音合成tts中,应用的HiFiGAN就是基于GAN的声码器)

欢迎小伙伴们留言评论~