深度学习基础及数学原理

合集下载

深度学习中的数学原理

深度学习中的数学原理

深度学习中的数学原理在当今信息时代,深度学习技术已经成为人工智能领域的热门话题。

深度学习通过模拟人类大脑的神经网络结构,实现了诸多令人惊叹的成就,如人脸识别、自然语言处理、智能推荐等。

然而,要想真正理解深度学习的原理和运行机制,数学是绕不开的重要基础。

1. 线性代数在深度学习中,矩阵运算是最基础也是最核心的运算方式。

而矩阵运算的基础便是线性代数。

在线性代数中,我们需要了解矩阵的乘法、转置、逆矩阵等基本运算,以及特征值、特征向量等概念。

这些基本概念为深度学习中复杂的神经网络模型奠定了数学基础。

2. 概率论与统计学在深度学习中,概率论和统计学扮演着至关重要的角色。

从最基本的概率密度函数到贝叶斯推断,这些概念和方法为深度学习中的参数估计、模型评估等提供了重要的理论支撑。

深度学习中的很多算法,例如贝叶斯网络、高斯混合模型等,都离不开概率论和统计学的基础。

3. 微积分微积分是研究变化的数学分支,而深度学习中的神经网络模型正是在不断的学习和调整中不断优化和逼近真实结果。

微积分中的导数和梯度等概念在深度学习中扮演着重要的角色。

通过对损失函数进行梯度下降优化,神经网络能够不断地更新参数以逼近最优解。

4. 线性回归与逻辑回归线性回归和逻辑回归是深度学习中常用的模型。

线性回归主要用于回归问题,逻辑回归则多用于分类问题。

这两种模型的基本原理是利用线性方程来拟合数据,其中,线性回归通过拟合直线来预测连续型变量,逻辑回归则通过拟合Sigmoid函数来预测二进制变量。

搞清楚这些基本模型的原理对于理解深度学习更加深入。

5. 深度学习中的优化算法深度学习中最常用的优化算法是梯度下降算法及其变种。

梯度下降算法通过不断迭代调整参数,使得损失函数最小化。

而随着深度学习的发展,越来越多的优化算法被提出,如动量法、RMSProp、Adam等。

了解这些优化算法的原理,可以帮助我们更好地训练神经网络模型。

总结深度学习是一门涵盖多个学科知识的交叉学科,其中数学是其中的重要组成部分。

如何让孩子更好地掌握深度学习知识

如何让孩子更好地掌握深度学习知识

如何让孩子更好地掌握深度学习知识随着人工智能技术的快速发展,深度学习已经成为了目前最为火热的领域之一。

很多家长都希望自己的孩子能够在未来有一席之地,因此开始提前为孩子学习深度学习知识。

但是,深度学习知识并不是一件简单的事情。

相比于其他学习领域,它更加复杂、抽象,需要更多的时间和精力去理解和掌握。

为了让孩子更好地掌握深度学习知识,我们需要从以下几个方面入手。

一、培养孩子的数学基础深度学习是一门高度数学化的学科,要想深入了解其原理和应用,必须有扎实的数学基础。

因此,在孩子学习深度学习知识前,我们需要培养好他们的数学基础,包括算数、代数、几何、统计等方面的知识。

只有掌握好这些基础知识,才能更好地理解深度学习算法的数学原理和公式,才能更好地应用和实践。

二、寻找适合孩子的学习方式对于不同的孩子,适合的学习方式也不同。

有些孩子喜欢通过阅读书籍来学习,有些孩子则更习惯于参加线上或线下的课程。

因此,我们需要认真探索适合自己孩子的学习方式,让孩子在学习过程中感到舒适、自信和有趣。

三、引导孩子进行实践说起来容易做起来难,深度学习知识并非只能通过纸上谈兵来掌握,更需要通过实践来验证。

因此,我们需要引导孩子积极进行实践操作,帮助他们理解和掌握深度学习知识。

这样做不仅可以提高孩子的学习兴趣和学习动力,更可以让孩子深刻理解深度学习知识的原理和应用,从而更好地掌握。

四、保持学习的持续性学习是一个长期的过程,就像一座大山,需要不断攀登才能登顶。

因此,我们需要让孩子保持学习的持续性,不断积累并巩固所学的知识,提高自己的综合能力。

同时,我们也应该给予孩子足够的时间和空间,帮助他们逐渐适应深度学习知识的学习和探索,为未来的学业和职业发展打下坚实的基础。

在总结中,我们需要认识到,深度学习知识的掌握并不容易,需要多方面的努力和支持。

只有通过科学的学习方法,丰富的学习资源,和有效的指导和激励,才能让孩子更好地掌握深度学习知识,并在未来的学习和工作中取得更好的成就。

深度学习基础教程

深度学习基础教程

深度学习基础教程
深度学习是一种机器学习算法,它使用一系列层次来自动提取特征,
从而对输入数据进行有效的分析和预测。

它利用多层神经网络,可以解决
复杂问题,并模拟人类的认知过程。

深度学习在自然语言处理、语音识别、计算机视觉、生物信息学和认知神经科学等领域发挥着重要作用。

基础深度学习教程包括以下内容:
1、基本原理:深度学习的基本原理包括神经网络,多层感知器,反
向传播等,帮助学习者进行技术攻关。

2、数据预处理:深度学习算法需要处理大量数据,因此学习者需要
掌握统计学习,数据清洗,变量选择,高维特征选择等方法,以正确的形
式预处理数据。

3、神经网络:神经网络是深度学习中最重要的一部分,它由层组成,层中的神经元组成网络,学习者将了解更深入地学习神经网络中的结构,
激活函数,权重,反向传播,变差,梯度下降等,掌握正确构建神经网络
的方法。

4、评估:学习者需要了解测量评价指标,如准确率,召回率,F1分数,ROC曲线,MSE,RMSE,混淆矩阵等,以评估深度学习模型的性能。

5、TensorFlow:TensorFlow是Google开发的深度学习框架,学习
者将掌握搭建神经网络。

深度学习技术的原理与实现

深度学习技术的原理与实现

深度学习技术的原理与实现随着人工智能技术的不断发展,深度学习技术已经成为了当前人工智能领域的核心之一。

深度学习技术通过一系列的神经网络模型实现了对数据的高效处理和分析,从而为机器学习提供了更加强大和高效的工具。

本文将从深度学习技术的原理和实现两个方面来探讨这一领域的发展。

一、深度学习技术的原理深度学习技术是一种模仿人类大脑神经元结构和工作方式的机器学习技术。

它建立在神经网络的基础上,通过模拟人脑的神经元和突触,实现了对数据进行高效处理和分析的能力。

深度学习主要使用神经网络模型实现。

神经网络是由多层神经元组成的模型,每一层神经元都经过一系列的数学运算和激活函数的操作,从而将输入的数据进行处理,得到输出结果。

其中,深度学习技术中的深度指的是神经网络的层数较深,通常有多达几百层。

深度学习技术的核心在于模型的训练。

模型的训练通常分为两个阶段:前向传播和反向传播。

前向传播是将输入数据送入神经网络模型中,通过一系列的数学计算和激活函数操作,最终得到输出结果的过程。

而反向传播则是将输出结果与真实结果进行比较,通过误差反向传递到各层神经元中,并调整每个神经元的权重和偏置值,使得模型的输出结果与真实结果之间的误差最小化。

二、深度学习技术的实现深度学习技术的实现需要依托于强大的计算机性能和大规模的数据集。

在计算机性能方面,深度学习需要使用具有较强计算能力的GPU来实现。

GPU拥有多个计算核心,可以同时进行多个浮点数计算和矩阵运算,在深度学习的模型训练过程中可以极大地提高计算速度。

在数据集方面,深度学习技术需要使用大规模的训练数据集来进行模型的训练。

数据集需要包含大量准确和完整的数据,以保证模型能够获得足够的信息和知识。

当数据集越大时,模型的泛化能力也就越强,从而可以适应更多的数据场景。

在实际应用中,深度学习技术已经得到了广泛的应用。

例如,在语音识别、图像识别、自然语言处理等领域,深度学习技术已经取得了较好的成果。

同时,深度学习技术也在推动着人工智能的发展,并创造了更多的商业机会和就业机会。

深度学习的基本原理和应用场景

深度学习的基本原理和应用场景

深度学习的基本原理和应用场景随着互联网和智能手机的普及,人工智能(AI)这个概念越来越为人所知。

在各种AI应用技术中,深度学习(Deep Learning)是其中比较重要和先进的技术之一。

那么,什么是深度学习呢?本文将带您了解深度学习的基本原理和应用场景。

深度学习的基本原理深度学习是一种机器学习的算法,被认为是实现人工智能的关键技术之一。

与传统的机器学习算法不同的是,深度学习需要利用复杂的神经网络模型,模仿人脑的学习过程,从而对复杂的数据进行分析和预测。

通俗来说,深度学习是利用多层神经网络对数据进行训练和学习的过程。

在此过程中,神经网络会不断调整自身的参数,以最大化训练数据的准确性。

而这个过程就是深度学习关键的“深度”:通常情况下,深度学习模型拥有超过三层的神经网络,有时甚至会达到几十甚至上百层,这就是深度学习的意义所在。

深度学习不仅需要深入的数学基础,同时也依赖于强大的硬件和计算技术。

深度学习需要大量的数据和计算量,必须用高效的显卡或者专用的神经网络芯片,才能保证训练效率和输出结果的准确性。

深度学习的应用场景深度学习在很多领域都有着重要的应用,例如图像识别、语音识别、自然语言处理和机器翻译等等。

以下是深度学习在不同领域的应用场景。

图像识别在图像识别领域,深度学习可以用于目标检测、分类和分割等各种任务。

如人脸识别、车牌识别以及智能家居中的人体检测等。

这些应用都需要深度学习模型对图像进行分析和理解,以达到准确的判断和预测。

语音识别语音识别是将语音信号转换成可处理的文本或命令。

深度学习技术可以用于语音信号的特征提取和模式识别,使得语音识别的准确性大幅提高。

比如可以将传统电话客服换成语音智能客服。

自然语言处理 (NLP)自然语言处理是广泛应用于文本数据的技术,借助深度学习模型可以实现文本分析,自动文本摘要,文件分类、情感分析,关键词提取等,甚至能生成自然流畅的对话。

在搜索引擎、智能客服、智能聊天等领域都有着广泛应用。

深度学习中的数学原理与技术实践

深度学习中的数学原理与技术实践

深度学习中的数学原理与技术实践深度学习是一种基于神经网络的机器学习方法,近年来在图像识别、自然语言处理等领域取得了巨大的成功。

虽然深度学习的应用广泛,但其中的数学原理和技术实践却是相当复杂的。

本文将探讨深度学习中的数学原理及其在技术实践中的应用。

首先,深度学习的核心是神经网络。

神经网络由多个神经元组成,每个神经元都有自己的权重和偏置。

神经网络通过调整权重和偏置来学习输入数据的特征,并进行预测或分类。

在数学上,神经网络可以看作是一个复杂的非线性函数,通过反向传播算法来优化网络的参数。

在深度学习中,最常用的神经网络是多层感知机(Multi-Layer Perceptron,简称MLP)。

MLP由输入层、若干隐藏层和输出层组成。

每个神经元接收上一层神经元的输出,并通过激活函数进行非线性变换。

常用的激活函数包括sigmoid函数、ReLU函数等。

通过多层的非线性变换,神经网络可以学习到更加复杂的特征。

在训练神经网络时,我们需要定义一个损失函数来衡量网络预测结果与真实结果之间的差异。

常用的损失函数包括均方误差(Mean Squared Error)和交叉熵(Cross Entropy)。

通过最小化损失函数,我们可以使用梯度下降算法来更新网络的参数,从而提高网络的预测性能。

除了神经网络,深度学习中还有一项重要的技术是卷积神经网络(Convolutional Neural Network,简称CNN)。

CNN是一种专门用于处理图像数据的神经网络结构。

它通过卷积操作和池化操作来提取图像的局部特征,并通过全连接层进行分类或预测。

卷积操作可以有效地减少网络的参数量,提高网络的计算效率和泛化能力。

在深度学习的实践中,数据的预处理和增强也是非常重要的环节。

数据预处理包括对数据进行归一化、标准化、降噪等操作,以确保数据的质量和可用性。

数据增强则是通过对原始数据进行旋转、平移、缩放等操作,生成更多的训练样本,提高网络的泛化能力。

深度学习背后的数学原理

深度学习背后的数学原理

深度学习背后的数学原理随着人工智能技术的飞速发展,深度学习已经成为人工智能的前沿领域之一。

深度学习的魅力在于它可以利用大量的数据来训练神经网络,从而实现对复杂问题的高效解决。

然而,深度学习背后的数学原理却是复杂深奥的,需要掌握一定的数学知识。

本文将从几个角度,深入探讨深度学习背后的数学原理。

一、神经网络的数学模型神经网络是深度学习的核心之一。

在深度学习中,神经网络是一个由多层神经元组成的模型,其中每一层神经元都可以进行加权求和并经过激活函数的操作。

神经网络的数学模型可以用广义线性模型来描述。

在这个模型中,每个神经元的输出可以表示为:y=f(w_1*x_1+w_2*x_2+...+w_n*x_n)其中,y表示神经元的输出,x表示神经元的输入,w表示权重,f表示激活函数。

通过不断迭代计算,神经网络可以实现复杂的非线性函数映射。

二、反向传播算法在深度学习中,反向传播算法是很重要的一个算法。

它的作用是通过计算误差来更新神经网络的权重,从而实现训练。

反向传播算法的核心思想是利用链式法则来计算误差对每个权重的偏导数。

具体地,我们先定义损失函数L,然后通过反向传播算法计算出损失函数对于每个权重的偏导数。

最后,根据这些偏导数来更新权重。

反向传播算法计算的复杂度非常高,但它是深度学习中训练神经网络的基础。

三、梯度下降法梯度下降法是一种优化方法,它被广泛应用于深度学习中。

梯度下降法的目的是最小化损失函数,通过不断更新权重来使得损失函数达到最小值。

梯度下降法的核心思想是沿着负梯度方向进行更新。

具体地,我们先计算损失函数的梯度,然后从当前位置开始,沿着负梯度方向进行一定的步长更新。

这个过程不断迭代,直到损失函数达到最小值。

四、正则化正则化是一种防止过拟合的方法,在深度学习中也有广泛的应用。

正则化的核心思想是通过约束权重的范围来防止神经网络学习到噪声数据或者无意义的特征。

常见的正则化方法有L1正则化和L2正则化。

L1正则化将权重矩阵的每个元素绝对值之和作为惩罚项,而L2正则化将权重矩阵的每个元素的平方和作为惩罚项。

深度学习六十问(基础题)

深度学习六十问(基础题)

深度学习六⼗问(基础题)数据类问题1.样本不平衡的处理⽅法①⽋采样 - 随机删除观测数量⾜够多的类,使得两个类别间的相对⽐例是显著的。

虽然这种⽅法使⽤起来⾮常简单,但很有可能被我们删除了的数据包含着预测类的重要信息。

②过采样 - 对于不平衡的类别,我们使⽤拷贝现有样本的⽅法随机增加观测数量。

理想情况下这种⽅法给了我们⾜够的样本数,但过采样可能导致过拟合训练数据。

③合成采样( SMOTE )-该技术要求我们⽤合成⽅法得到不平衡类别的观测,该技术与现有的使⽤最近邻分类⽅法很类似。

问题在于当⼀个类别的观测数量极度稀少时该怎么做。

⽐如说,我们想⽤图⽚分类问题确定⼀个稀有物种,但我们可能只有⼀幅这个稀有物种的图⽚。

④在loss⽅⾯,采⽤focal loss等loss进⾏控制不平衡样本。

不平衡类别会造成问题有两个主要原因: 1.对于不平衡类别,我们不能得到实时的最优结果,因为模型/算法从来没有充分地考察隐含类。

2.它对验证和测试样本的获取造成了⼀个问题,因为在⼀些类观测极少的情况下,很难在类中有代表性。

2.讲下数据增强有哪些⽅法(重点)翻转,旋转,缩放,裁剪,平移,添加噪声,有监督裁剪,mixup,上下采样,增加不同惩罚解决图像细节不⾜问题(增强特征提取⾻⼲⽹络的表达能⼒)3.过拟合的解决办法(重点)数据扩充/数据增强/更换⼩⽹络(⽹络太复杂)/正则化/dropout/batch normalization增加训练数据、减⼩模型复杂度、正则化,L1/L2正则化、集成学习、早期停⽌什么是过拟合过拟合(overfitting)是指在模型参数拟合过程中的问题,由于训练数据包含抽样误差,训练时,复杂的模型将抽样误差也考虑在内,将抽样误差也进⾏了很好的拟合。

产⽣过拟合根本原因:观察值与真实值存在偏差, 训练数据不⾜,数据太少,导致⽆法描述问题的真实分布, 数据有噪声, 训练模型过度,导致模型⾮常复杂什么是⽋拟合:训练的模型在训练集上⾯的表现很差,在验证集上⾯的表现也很差原因:训练的模型太简单,最通⽤的特征模型都没有学习到正则化正则化的原理:在损失函数上加上某些规则(限制),缩⼩解空间,从⽽减少求出过拟合解的可能性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . 24 误差反向传播 . . . . . . . . . . . . . . . . . . . . . . . 25
4 前馈神经网络 4.1
特征/表示学习 . . . . . . . . . . . . . . . . . . . . . . . . . . 15 i
ii 4.1.1 4.1.2 4.1.3 4.1.4 4.1.5 4.2 4.2.1 4.2.2 4.2.3 4.3 4.4
目录 线性模型 . . . . . . . . . . . . . . . . . . . . . . . . . 15 特征工程 . . . . . . . . . . . . . . . . . . . . . . . . . 15 核方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 表示学习 . . . . . . . . . . . . . . . . . . . . . . . . . 17 深度学习 . . . . . . . . . . . . . . . . . . . . . . . . . 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 数据表示 . . . . . . . . . . . . . . . . . . . . . . . . . 18 人工神经元模型 . . . . . . . . . . . . . . . . . . . . . . 22 神经网络架构 . . . . . . . . . . . . . . . . . . . . . . . 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.3
参数更新
目录 6.4 6.5 6.6 6.7
iii 退出 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 数据初始化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 参数初始化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 随机裁剪 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
损失函数 5.4.1 5.4.2
优化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 卷积层的反向传播 . . . . . . . . . . . . . . . . . . . . 37 汇合层的反向传播 . . . . . . . . . . . . . . . . . . . . 37
预测和评估 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 预测 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 评估 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 15
1
在下文将这些任务统称为图像识别 (image recognition).
1
2
CHAPTER 1. 引言
了应对挑战采用的数据驱动过程; 第 3 章将以 softmax 线性分类器为例介绍 数据驱动过程的各个流程; 第 4 章使用神经网络扩展 softmax 线性分类器以 解决非线性问题; 第 5 章讨论卷积神经网络的组成及学习方法; 第 6 章将讨 论一些具体实现细节.
深度学习基础及数学原理
Hao Zhang haomoodzhang@
2016 年 9 月 26 日
2
目录
1 引言 2 图像识别问题的挑战及数据驱动过程 2.1 2.2 图像分类问题的挑战 . . . . . . . . . . . . . . . . . . . . . . . 数据驱动过程 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 3 4 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 6 7 7 7 8 9 9
3 线性分类器 3.1 3.2 训练数据 假设函数 3.2.1 3.2.2 3.2.3 3.3 3.3.1 3.3.2 3.4 3.4.1 3.4.2 3.4.3 3.5 3.5.1 3.5.2
线性分类模型的假设函数 . . . . . . . . . . . . . . . . 对假设函数的理解 . . . . . . . . . . . . . . . . . . . . Softmax 分类器的假设函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 交叉熵损失 . . . . . . . . . . . . . . . . . . . . . . . . 正则化 . . . . . . . . . . . . . . . . . . . . . . . . . . . 梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . softmax 优化规则
Chapter 2
图像识别问题的挑战及数据驱 动过程
图像识别任务面临着诸多挑战, 这使得它自计算机视觉领域 1966 年诞 生以来就成为一个十分活跃的子领域. 本章将简要讨论图像识别问题的挑战 以及为了应对这些挑战而使用的数据驱动过程.
2.1 图像分类问题的挑战
虽然从图像中识别一个对象对人类来说非常的简单, 但图像识别对计算 机来说是一项极具挑战性的工作. 在计算机内, 图像是由一个很大三维数组 表示的. 比如一张 1024 × 768 的图像, 它拥有 R, G, B 三个分量, 因此, 这 张图像有 1024 × 768 × 3 = 2, 359, 296 个像素, 每个像素是一个 0(黑) 到 255(白) 之间的整数. 这种现象, 称为语义鸿沟. 图像分类的任务是将这两百 万个数字映射到一个标记, 比如 “猫”. 除了语义鸿沟之外, 图像识别还有其他的一些挑战, 见图2.1. • 视角变化. 一个相同的目标相对摄像机可以有不同的朝向. • 尺度变化. 不仅是占据图像的相对大小, 目标在真实世界的大小也会发 生变化. • 形变. 许多目标并不是刚体, 有时会有很极端的形变. • 遮挡. 目标可能被遮挡, 因此只有一小部分是可见的. • 光照改变. 光照会对像素值的大小产生巨大的变化. 3
1
当今, 我们正处在信息时代和
数字时代, 充斥着大量的数字图像, 诸多的实际应用场景需要计算机能正确 和高效地理解图像, 图像分类正是理解图像的基础. 人类从图像中进行目标识别非常容易, 但是计算机看到的图像是一组 0 至 255 之间的数字, 语义鸿沟 (semantic gap) 的存在使图像识别成为一项 极具挑战性的任务. 除此之外, 拍摄视角, 光照, 背景, 遮挡等因素可能使具 有相同类别的图像之间像素值会十分不相似而不同类别的图像之间像素值 很相似, 这使得我们不能通过显式地指定若干规则来对图像中的目标进行识 别. 因此, 我们借鉴人类的学习过程, 给定很多的训练数据, 让计算机从训练 数据中学习如何做分类, 这叫做数据驱动过程 (data-driven approach). 使用深度学习中卷积神经网络 (convolutional neuralnetwork, CNN) 是 现在进行图像识别的主流方法, 目前效果最佳的卷积神经网络做图像分类的 准确率已经超过人 [28]. 除图像分类外, 卷积神经网络还广泛应用于很多领 域, 如目标识别 [8], 图像分割 [22], 视频分类 [15], 场景分类 [36], 人脸识别 [32], 深度估计 [5], 从图像中生成语言描述 [14] 等. 本文剩余部分将如下安排: 第 2 章将简述图像识别问题的挑战以及为
损失函数
优化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
随机梯度下降 . . . . . . . . . . . . . . . . . . . . . . . 11 . . . . . . . . . . . . . . . . . . . . 12
4.5
预测和评估 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
iv
目录
Chapter 1
引言
图像分类 (image classification) 问题是指, 假设给定一系列离散的类别 (categories)(如猫, 狗, 飞机, 货车, …), 对于给定的图像, 从这些类别中赋予 一个作为它的标记 (label). 图像分类问题是计算机视觉领域的核心问题之 一, 也与目标检测 (object detection), 目标分割 (object segmentation) 等其 他计算机视觉领域核心问题有密切的联系.
相关文档
最新文档