深度学习的基本理论与方法

合集下载

深度学习的基本原理与算法

深度学习的基本原理与算法

深度学习的基本原理与算法深度学习是一种机器学习的方法。

它是通过建立多层神经网络对数据进行处理和分类。

深度学习具有极强的自适应性和自学习能力,可以处理大规模的数据。

目前,深度学习的应用范围已经涵盖了很多行业,例如语音识别、图像识别、自然语言处理等。

一、基本原理深度学习的基本原理是模仿人脑神经元的工作方式,通过不断的反馈和调整来不断优化神经网络。

深度学习的神经网络的基本结构是由多个层次的神经元组成的。

第一层神经元接受输入数据,后续各层神经元则通过上一层的输出来进行计算。

通过多层的神经元,深度学习可以将输入数据不断地进行特征提取和分类,从而得出准确的结果。

二、基本算法2.1 前馈神经网络算法前馈神经网络是深度学习最基础的模型之一,也是最基本的神经网络模型。

前馈神经网络是指数据传递的方向只能向前,无法向后传递。

这种模型通过多层神经元进行特征提取和分类,每个神经元都有一个激活函数,激活函数的输出作为下一层神经元的输入。

前馈神经网络模型的训练通常使用反向传播算法进行改进。

2.2 卷积神经网络算法卷积神经网络是一种专门用于图像识别的深度学习模型。

它是通过卷积核对图像进行卷积操作来提取图像的特征。

卷积操作可以提取出图像的空间信息,通过不断的池化操作可以将图像的尺寸逐渐缩小,然后送入全连接层进行最终的分类。

卷积神经网络的前向传播过程是独立的,可以通过并行计算来提高效率。

同时,卷积神经网络还可以通过预训练和微调来提高模型的准确率。

2.3 循环神经网络算法循环神经网络是用于处理序列数据的深度学习模型。

它通过对先前数据的处理结果进行反馈,从而使模型具有记忆能力,可以对序列数据进行逐步推理和预测。

循环神经网络模型的训练通常使用反向传播算法进行改进。

在处理长序列时,循环神经网络的梯度消失问题会导致训练不稳定,因此需要使用门控循环单元(GRU)和长短时记忆网络(LSTM)等改进算法来增强模型的记忆能力和稳定性。

三、深度学习的应用深度学习目前已经广泛应用于各个领域。

深度学习的基本理论与方法_图文

深度学习的基本理论与方法_图文

• 限制波尔兹曼机(Restricted Boltzmann Machine)
• 定义:假设有一个二部图,同层节点之间没有链接,一层是可 视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的 节点都是随机二值( 0,1值)变量节点,同时假设全概率分布 p(v,h)满足Boltzmann 分布,我们称这个模型是Restricted BoltzmannMachine (RBM)。
• Deep Boltzmann Machine(DBM)
Deep Belief Networks是在靠近可视层的部分使用贝叶斯信念网 络(即有向图模型),而在最远离可视层的部分使用Restricted Boltzmann Machine的模型。
• 卷积波尔兹曼机(Convolutional RBM)
深度学习的具体模型及方法
• 降噪自动编码器(Denoising AutoEncoders)
• 在自动编码器的基础上,对训练数据加入噪声,自动编码器 必须学习去去除这种噪声而获得真正的没有被噪声污染过的 输入。因此,这就迫使编码器去学习输入信号的更加鲁棒的 表达,这也是它的泛化能力比一般编码器强的原因。
Inference: prediction, recognition
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
• 人脑视觉机理
人的视觉系统的信息处理是分级的
高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象 ,越来越能表现语义或者意图

深度学习基础教程

深度学习基础教程

深度学习基础教程
深度学习是一种机器学习算法,它使用一系列层次来自动提取特征,
从而对输入数据进行有效的分析和预测。

它利用多层神经网络,可以解决
复杂问题,并模拟人类的认知过程。

深度学习在自然语言处理、语音识别、计算机视觉、生物信息学和认知神经科学等领域发挥着重要作用。

基础深度学习教程包括以下内容:
1、基本原理:深度学习的基本原理包括神经网络,多层感知器,反
向传播等,帮助学习者进行技术攻关。

2、数据预处理:深度学习算法需要处理大量数据,因此学习者需要
掌握统计学习,数据清洗,变量选择,高维特征选择等方法,以正确的形
式预处理数据。

3、神经网络:神经网络是深度学习中最重要的一部分,它由层组成,层中的神经元组成网络,学习者将了解更深入地学习神经网络中的结构,
激活函数,权重,反向传播,变差,梯度下降等,掌握正确构建神经网络
的方法。

4、评估:学习者需要了解测量评价指标,如准确率,召回率,F1分数,ROC曲线,MSE,RMSE,混淆矩阵等,以评估深度学习模型的性能。

5、TensorFlow:TensorFlow是Google开发的深度学习框架,学习
者将掌握搭建神经网络。

深度学习的理论基础和数据处理方法

深度学习的理论基础和数据处理方法

深度学习的理论基础和数据处理方法近年来,深度学习已经成为计算机科学、人工智能领域的热点话题。

深度学习是指利用多层神经网络学习输入数据特征的机器学习方法,其成功应用已经涵盖了图像识别、自然语言处理、语音合成等多个领域。

深度学习的研究离不开理论基础和数据处理方法,下面我们探讨一下深度学习的这两个方面。

一、理论基础深度学习的理论基础主要来自于神经网络,而神经网络的理论基础则是统计学中的决策论。

决策论是指利用统计学方法对待处理数据的行为做出决策。

常见的统计学方法包括极大似然法、最小二乘法和贝叶斯方法等,这些方法大都与概率论有关。

在决策论中,设计一个能够最小化总体误差的算法是很常见的问题,而神经网络恰好是一种解决这种问题的算法。

神经网络在设计时考虑到了人类神经系统的结构,其基本单元为神经元。

神经元由多个输入端和一个输出端组成,其输出是某种激活函数的输出。

通常情况下,神经元的输入会被乘以相应的权重,然后加上一个偏置项,以作为其输出的函数输入。

当多个神经元组合成了一个网络时,其能够有效地接收和处理输入信息,从而输出预测结果。

如果将其与决策论相结合,就可以得到一种强大的预测算法。

由于神经网络的模型很容易变得非常复杂,这就需要损失函数来衡量网络输出结果之间的距离,从而将训练误差最小化。

最常见的损失函数是均方误差函数。

这个函数非常直观,就是计算实际输出和预测输出之间的误差平方和,而神经网络训练的目标就是将这个均方误差最小化。

我们知道,神经网络训练需要大量的数据来提高网络模型的预测准确率。

然而,现实数据往往具有很强的噪音和复杂性,这就要求处理这些数据的方法与模型具有足够的鲁棒性。

二、数据处理方法数据处理也是深度学习中不可忽视的一环。

在深度学习中,数据处理旨在将原始数据转化为模型能够接受并处理的输入数据格式。

如果数据处理不当,会影响后续模型的表现和预测准确率。

数据预处理可以包括对数据进行清洗、正则化、标准化等多个步骤。

深度学习基础教程

深度学习基础教程

深度学习基础教程标题:深度学习基础教程导语:深度学习是一种机器学习的分支,它模拟人脑神经网络的工作原理,通过多层次的神经元来处理和分析大量的数据。

本篇文章将详细介绍深度学习的基础知识和步骤,帮助初学者快速入门。

正文:一、深度学习的基本概念和原理1. 了解深度学习的定义和作用2. 了解神经网络和深度学习的关系3. 了解前馈神经网络的结构和工作原理4. 了解反向传播算法及其在深度学习中的应用二、深度学习的主要应用领域1. 计算机视觉:图像分类、目标检测和图像生成2. 自然语言处理:文本分类、语义理解和机器翻译3. 语音识别:语音转文字和语音合成4. 强化学习:智能游戏和机器人控制三、深度学习的步骤和流程1. 数据预处理a) 收集和清洗数据b) 数据标准化和归一化c) 数据划分为训练集、验证集和测试集2. 模型构建a) 选择适合任务的神经网络结构b) 设计网络的层数和每层的神经元数目c) 定义激活函数和损失函数3. 模型训练a) 初始化模型参数b) 使用训练数据进行前向传播和反向传播c) 更新参数以最小化损失函数d) 重复以上步骤直到收敛4. 模型评估a) 使用验证集评估模型性能b) 根据评估结果调整模型参数c) 重复以上步骤直到满足预期性能指标5. 模型应用a) 使用测试集评估模型泛化能力b) 部署模型到实际应用中c) 监控和调整模型性能四、深度学习实践和学习资源推荐1. 深度学习框架和工具介绍a) TensorFlowb) PyTorchc) Keras2. 学习资源推荐a) 推荐书籍:《深度学习》、《神经网络与深度学习》等b) 在线教程和课程:Coursera、Udemy、机器之心等网站c) 论坛和社区:Stack Overflow、GitHub等结语:深度学习作为一种强大的机器学习方法,已经在各个领域展现出许多成功的应用。

通过本篇文章的学习,读者可以了解深度学习的基本概念、原理和应用步骤,并掌握深度学习的核心算法和工具。

深度学习技术的原理和算法

深度学习技术的原理和算法

深度学习技术的原理和算法随着人工智能的发展,深度学习技术被越来越广泛地应用于图像识别、自然语言处理、推荐系统等领域。

深度学习技术具有优秀的智能化和自适应性,可以从海量的数据中提取出有效的特征,从而实现更加精准的预测和分析。

本文主要介绍深度学习技术的原理和算法,帮助读者更好地了解深度学习技术。

一、深度学习技术的基本原理深度学习技术是一种通过模拟人类神经系统实现的机器学习技术,其基本原理是通过多层神经网络模拟人脑神经系统,实现非线性函数逼近和特征提取。

深度学习技术中的“深度”指的是神经网络的层数比较多,有时可以达到数百层。

深度学习技术的核心就是多层神经网络,由于深层神经网络具有更强的非线性表达能力以及更优秀的特征提取能力,因此可以更好地应用于图像识别、自然语言处理等领域。

深度学习技术的训练过程是一种反向传播算法,即通过计算误差和权重梯度进行权重的调整,实现对网络模型的优化。

深度学习技术的优化算法有很多种,常见的包括梯度下降算法、Adam优化算法等。

此外,深度学习技术中也包括一些正则化方法,如L1正则化、L2正则化等,用于控制模型的复杂度,防止过拟合现象的发生。

二、深度学习技术的常见算法1.卷积神经网络(CNN)卷积神经网络是一种广泛应用于图像识别领域的深度学习算法。

其主要思想是通过卷积运算和子采样运算对图像进行特征提取,从而实现对图像的分类和识别。

卷积神经网络可以自动学习图片的低级特征(如边缘、角点等)和高级特征(如纹理、形状等),并且具有平移不变性和局部连接性,可以大大降低网络的训练参数和计算复杂度。

2.循环神经网络(RNN)循环神经网络是一种广泛应用于自然语言处理、语音识别等领域的深度学习算法。

其主要思想是运用一张虚拟时间轴,将每个时间步的输入和上一个时间步的隐含层状态进行计算,从而实现对时序数据的建模。

循环神经网络可以自动学习序列数据的长期依赖关系,并具有参数共享和隐含状态复用的特性。

3.生成对抗网络(GAN)生成对抗网络是一种最近非常流行的深度学习方法,其主要思想是通过两个深度网络的对抗学习实现图像、音频等数据的生成。

深度学习的基本理论与方法

深度学习的基本理论与方法
不同点:
神经网络:采用BP算法调整参数,即采用迭代算法来 训练整个网络。随机设定初值,计算当前网络的输 出,然后根据当前输出和样本真实标签之间的差去 改变前面各层的参数,直到收敛;
深度学习:采用逐层训练机制。采用该机制的原因在 于如果采用BP机制,对于一个deep network(7层以 上),残差传播到最前面的层将变得很小,出现所 谓的gradient diffusion(梯度扩散)。
孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
动 机——为什么采用层次网络结构
• 人脑视觉机理
✓ 人的视觉系统的信息处理是分级的 ✓ 高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象
,越来越能表现语义或者意图 ✓ 抽象层面越高,存在的可能猜测就越少,就越利于分类
• 与浅层学习区别: 1)强调了模型结构的深度,通常有5-10多层的隐层
节点; 2)明确突出了特征学习的重要性,通过逐层特征变
换,将样本在原空间的特征表示变换到一个新特 征空间,从而使分类或预测更加容易。与人工规 则构造特征的方法相比,利用大数据来学习特征 ,更能够刻画数据的丰富内在信息。
深度学习
每个特征上就会稀疏。
• 结论:不一定特征越多越好!需要有多少个特征,需要学 习确定。
动 机——为什么采用层次网络结构
• 人脑视觉机理 ✓ 1981年的诺贝尔医学奖获得者 David Hubel和
TorstenWiesel发现了视觉系统的信息处理机制 ✓ 发现了一种被称为“方向选择性细胞的神经元细胞,当瞳
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
– Gehler and Nowozin, On Feature Combination for Multiclass Object Classification, ICCV’09

深度学习教程

深度学习教程

深度学习教程深度学习是一种机器学习算法,可以通过模拟人类大脑的神经网络结构来解决复杂的学习和问题求解任务。

在本教程中,我们将介绍深度学习的基本概念、原理和应用。

1. 神经网络的基本原理神经网络是深度学习的核心组成部分。

它由多个神经元和层组成,每个神经元都有权重和偏置。

神经网络通过不断调整权重和偏置来提高预测的准确性。

我们将学习反向传播算法,这是一种用于训练神经网络的常用方法。

2. 卷积神经网络(CNN)卷积神经网络是一种特殊的神经网络结构,广泛应用于图像识别和计算机视觉任务。

我们将介绍卷积层、池化层和全连接层的原理,并进行手写数字识别的实际案例。

3. 循环神经网络(RNN)循环神经网络是一种可以处理序列数据的神经网络结构。

它在处理自然语言处理(NLP)任务、序列生成和时间序列预测方面表现出色。

我们将学习LSTM和GRU等RNN的变体,并进行文本生成的实践。

4. 深度学习的应用深度学习在各个领域都有广泛的应用,如自动驾驶、语音识别、医疗影像分析等。

我们将介绍这些应用领域的基本原理和实际案例,并探讨深度学习未来的发展方向。

5. 深度学习的实践本教程将通过使用常见的深度学习框架(如TensorFlow和PyTorch)来进行实践。

我们将使用各种数据集和网络结构来训练和评估模型,并提供代码示例和实操指导。

总结:本教程提供了深度学习的基本概念、原理和应用的全面介绍。

通过学习本教程,你将了解深度学习的基本原理和常用算法,以及如何在实际应用中使用深度学习技术。

希望这个教程能帮助你入门深度学习,并为你今后的学习和实践提供指导。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2)训练速度比较慢,在层次比较少(小于等 于3)的情况下效果并不比其它方法更优;
深度学习训练过程
不采用BP算法的原因 (1)反馈调整时,梯度越来越稀疏,从顶层越往下,
误差校正信号越来越小; (2)收敛易至局部最小,由于是采用随机值初始化,
当初值是远离最优区域时易导致这一情况; (3)BP算法需要有标签数据来训练,但大部分数据
研究背景及现状
图灵(图灵,计算机和人工智能的鼻祖, 分别对应于其著名的“图灵机”和“图灵 测试”)在 1950 年的论文里,提出图灵试 验的设想,即,隔墙对话,你将不知道与 你谈话的,是人还是电脑。这无疑给计算 机,尤其是人工智能,预设了一个很高的 期望值。但是半个世纪过去了,人工智能 的进展,远远没有达到图灵试验的标准。 这不仅让多年翘首以待的人们,心灰意冷, 有部分人甚至认为人工智能是“伪科学”。
研究背景及现状
但是自 2006 年以来,机器学习领域,取得 了突破性的进展。图灵试验,至少不是那 么可望而不可及了。至于技术手段,不仅 仅依赖于云计算对大数据的并行处理能力, 而且依赖于算法。这个算法就是 Deep Learning。借助于 Deep Learning 算法,人类 似乎找到了一种可以处理“抽象概念”这 个亘古难题的方法。
过热的研究现状
拥有大数据的互联网公司争相投入大量资源研发深 度学习技术。企业很喜欢这种方法,因为它像个黑 盒子,不管算法具体内容是什么,只管往里扔数据 就可以,并且效果还很好。
高校研究所的研究人员也纷纷加入Deep learning的 研究热潮中。CVPR,ICCV等模式识别权威会议,也 被Deep learning占据了半壁江山。研究从大有从算 法研究,走向数据制霸的趋势。谁有更大数据,有 更大型的设备,就往往能取得更好的结果。
深度学习训练过程
AutoEncoder:
Class label
解码 Decoder Encoder 编码
Features
e.g.
Decoder Encoder
Features
Decoder Encoder
Input Image
深度学习训练过程
第二步:自顶向下的监督学习 这一步是在第一步学习获得各层参数进的基础
2)深度神经网络在训练上的难度,可以通过“逐层 初始化”(layer-wise pre-training)来有效克 服,逐层初始化可通过无监督学习实现的。
深度学习
本质:通过构建多隐层的模型和海量训练数据 (可为无标签数据),来学习更有用的特征,从 而最终提升分类或预测的准确性。“深度模型” 是手段,“特征学习”是目的。
深度学习:采用逐层训练机制。采用该机制的原因在 于如果采用BP机制,对于一个deep network(7层以 上),残差传播到最前面的层将变得很小,出现所 谓的gradient diffusion(梯度扩散)。
深度学习 vs. 神经网络
神经网络的局限性:
1)比较容易过拟合,参数比较难调整,而且 需要不少技巧;
Preprocessing
Feature extract.
Feature selection
Inference: prediction, recognition
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
TorstenWiesel发现了视觉系统的信息处理机制 ✓ 发现了一种被称为“方向选择性细胞的神经元细胞,当瞳
孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
动 机——为什么采用层次网络结构
人脑视觉机理
✓ 人的视觉系统的信息处理是分级的
✓ 高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象, 越来越能表现语义或者意图
具有多样性,如:SIFT, HOG, LBP等 手工选取特征费时费力,需要启发式专业知识,很大程度上靠
经验和运气 是否能自动地学习特征?
动 机——为什么要自动学习特征
• 中层特征
✓ 中层信号:
连续
平行
更加复杂的信号: ✓ 物体部件:
连接
拐角
• 他们对于人工而言是十分困难的,那么如何学习呢?
动 机——为什么要自动学习特征
示能力有限,针对复杂分类问题其泛化能力受限。
深度学习
2006年,加拿大多伦多大学教授、机器学习领域 的泰斗Geoffrey Hinton在《Science》上发表论 文提出深度学习主要观点:
1)多隐层的人工神经网络具有优异的特征学习能力, 学习得到的特征对数据有更本质的刻画,从而有 利于可视化或分类;
过热的研究现状
2012年6月,《纽约时报》披露了Google Brain项目。用 16000个CPU Core的并行计算平台训练一种称为“深度 神经网络”(DNN,Deep Neural Networks)的机器学 习模型(内部共有10亿个节点),在语音识别和图像 识别等领域获得了巨大的成功。
项目负责人之一Andrew称:“我们没有像通常做的那 样自己框定边界,而是直接把海量数据投放到算法中, 让数据自己说话,系统会自动从数据中学习。”另外 一名负责人Jeff则说:“我们在训练的时候从来不会告 诉机器说:‘这是一只猫。’系统其实是自己发明或 者领悟了“猫”的概念。”
动 机——为什么采用层次网络结构
浅层学习的局限 ✓ 人工神经网络(BP算法) —虽被称作多层感知机,但实际是种只含有一层隐层
节点的浅层模型 ✓ SVM、Boosting、最大熵方法(如LR,Logistic
Regression) —带有一层隐层节点(如SVM、Boosting),或没有
隐层节点(如LR)的浅层模型 局限性:有限样本和计算单元情况下对复杂函数的表
采用39 个常用的不同的特征进行多特征融合,用来 识别不同物体
PHOG, SIFT, V1S+, Region Cov. Etc.
在普通特征上MKL表现 有限 结论:特征很关键,目前人 工选择的特征很难有效融合。
动 机——为什么要自动学习特征
机器学习中,获得好的特征是识别成功的关键 目前存在大量人工设计的特征,不同研究对象特征不同,特征
动 机——为什么要自动学习特征
实验:LP-β Multiple Kernel Learning(MKL) 多核学习是多特征融合的一个重要方向
Gehler and Nowozin, On Feature Combination for Multiclass Object Classification, ICCV’09
✓ 抽象层面越高,存在的可能猜测就越少,就越利于分类
动 机——为什么采用层次网络结构
视觉的层次性
✓ 属性学习,类别作为属性的一种组合映射 Lampert et al. CVPR’09
类别标签 属性
图像特征
动 机——为什么采用层次网络结构
学习算法在一个什么粒度上 的特征表示,才有能发挥作 用?就一个图片来说,像素 级的特征根本没有价值。例 如下面的摩托车,从像素级 别,根本得不到任何信息, 其无法进行摩托车和非摩托 车的区分。而如果特征是一 个具有结构性(或者说有含 义)的时候,比如是否具有 车把手(handle),是否 具有车轮(wheel),就很 容易把摩托车和非摩托车区 分,学习算法才能发挥作用。
过热的研究现状
2012年11月,微软在中国天津的一次活动 上公开演示了一个全自动的同声传译系统, 讲演者用英文演讲,后台的计算机一气呵 成自动完成语音识别、英中机器翻译和中 文语音合成,效果非常流畅。据报道,后 面支撑的关键技术也是DNN,或者深度学习 (DL,Deep Learning)。
视频链接
研究所”(IDL,Institue of Deep Learning)。把Goole BraageNet竞赛中多次提交竞 赛结果,有作弊行为,而被取消竞赛资格。
与浅层学习区别: 1)强调了模型结构的深度,通常有5-10多层的隐层
节点; 2)明确突出了特征学习的重要性,通过逐层特征变
换,将样本在原空间的特征表示变换到一个新特 征空间,从而使分类或预测更加容易。与人工规 则构造特征的方法相比,利用大数据来学习特征, 更能够刻画数据的丰富内在信息。
深度学习
好处:可通过学习一种深层非线性网络结 构,实现复杂函数逼近,表征输入数据分 布式表示。
是无标签的;
深度学习训练过程
2006年,hinton提出了在非监督数据上建立 多层神经网络的一个有效方法,方法是:
1)首先逐层构建单层神经元,这样每次都 是训练一个单层网络。
2)当所有层训练完后,Hinton使用wakesleep算法进行调优。每次仅调整一层,逐 层调整。
深度学习训练过程
将除最顶层的其它层间的权重变为双向的。 向上的权重用于“认知”,向下的权重用 于“生成”。然后使用Wake-Sleep算法调 整所有的权重。让认知和生成达成一致, 也就是保证生成的最顶层表示能够尽可能 正确的复原底层的结点。比如顶层的一个 结点表示人脸,那么所有人脸的图像应该 激活这个结点,并且这个结果向下生成的 图像应该能够表现为一个大概的人脸图像。
深度学习训练过程
wake-sleep算法:
1)wake阶段: 认知过程,通过外界的特征和向上的权重(认知权重)产生每 一层的抽象表示(结点状态),并且使用梯度下降修改层间的 下行权重(生成权重)。
2)sleep阶段: 生成过程,通过顶层表示(醒时学得的概念)和向下权重,生 成底层的状态,同时修改层间向上的权重(认知权重)。
深度学习的简介与应用
目录
研究背景 概述 动机 深度学习简介 深度学习的训练过程 深度学习的具体模型及方法 深度学习的性能比较和应用 深度学习识别标识牌 使用深度学习研究存在的问题
相关文档
最新文档