深度学习的基本理论与方法
《2024年深度强化学习理论及其应用综述》范文

《深度强化学习理论及其应用综述》篇一摘要:深度强化学习作为人工智能领域的一个新兴方向,以其强大的学习能力,为机器决策、控制等提供了新的解决方案。
本文将系统地综述深度强化学习的基本理论、研究进展以及其在不同领域的应用情况,并对其未来发展方向进行展望。
一、引言深度强化学习是人工智能领域的一种重要技术,其结合了深度学习和强化学习的优势,旨在通过模拟人与环境的交互过程,使机器能够自主地学习和决策。
本文旨在全面回顾深度强化学习的理论基础,并对其在不同领域的应用进行详细介绍。
二、深度强化学习理论概述1. 深度学习理论基础深度学习是一种基于神经网络的机器学习方法,通过模拟人脑神经元的结构与功能,实现对复杂数据的表示与处理。
深度学习在图像识别、语音识别、自然语言处理等领域取得了显著的成果。
2. 强化学习理论基础强化学习是一种通过试错来学习的过程,通过评估动作与奖励的关系来寻找最优的决策策略。
在面对复杂的决策问题时,强化学习表现出强大的优势。
3. 深度强化学习理论框架深度强化学习结合了深度学习和强化学习的优点,通过神经网络来逼近状态-动作值函数或策略函数,实现从原始感知数据到策略的直接映射。
这种方法可以有效地解决复杂环境下的决策问题。
三、深度强化学习的研究进展随着计算能力的不断提升以及大数据资源的丰富,深度强化学习在理论研究与应用研究方面取得了显著进展。
特别是对于复杂的游戏决策、无人驾驶车辆控制等场景,深度强化学习已经取得了重要的突破。
此外,还有研究者通过引入元学习等新思路,使得深度强化学习在面对新任务时能够快速适应。
四、深度强化学习的应用领域1. 游戏与娱乐领域深度强化学习在游戏领域的应用已经非常广泛。
例如,AlphaGo等程序在围棋等游戏中展现了强大的决策能力。
此外,在电子游戏、虚拟现实等领域也有着广泛的应用前景。
2. 机器人控制领域在无人驾驶车辆、工业机器人等领域,深度强化学习可以实现更加智能的决策与控制。
深度学习的基本原理与算法

深度学习的基本原理与算法深度学习是一种机器学习的方法。
它是通过建立多层神经网络对数据进行处理和分类。
深度学习具有极强的自适应性和自学习能力,可以处理大规模的数据。
目前,深度学习的应用范围已经涵盖了很多行业,例如语音识别、图像识别、自然语言处理等。
一、基本原理深度学习的基本原理是模仿人脑神经元的工作方式,通过不断的反馈和调整来不断优化神经网络。
深度学习的神经网络的基本结构是由多个层次的神经元组成的。
第一层神经元接受输入数据,后续各层神经元则通过上一层的输出来进行计算。
通过多层的神经元,深度学习可以将输入数据不断地进行特征提取和分类,从而得出准确的结果。
二、基本算法2.1 前馈神经网络算法前馈神经网络是深度学习最基础的模型之一,也是最基本的神经网络模型。
前馈神经网络是指数据传递的方向只能向前,无法向后传递。
这种模型通过多层神经元进行特征提取和分类,每个神经元都有一个激活函数,激活函数的输出作为下一层神经元的输入。
前馈神经网络模型的训练通常使用反向传播算法进行改进。
2.2 卷积神经网络算法卷积神经网络是一种专门用于图像识别的深度学习模型。
它是通过卷积核对图像进行卷积操作来提取图像的特征。
卷积操作可以提取出图像的空间信息,通过不断的池化操作可以将图像的尺寸逐渐缩小,然后送入全连接层进行最终的分类。
卷积神经网络的前向传播过程是独立的,可以通过并行计算来提高效率。
同时,卷积神经网络还可以通过预训练和微调来提高模型的准确率。
2.3 循环神经网络算法循环神经网络是用于处理序列数据的深度学习模型。
它通过对先前数据的处理结果进行反馈,从而使模型具有记忆能力,可以对序列数据进行逐步推理和预测。
循环神经网络模型的训练通常使用反向传播算法进行改进。
在处理长序列时,循环神经网络的梯度消失问题会导致训练不稳定,因此需要使用门控循环单元(GRU)和长短时记忆网络(LSTM)等改进算法来增强模型的记忆能力和稳定性。
三、深度学习的应用深度学习目前已经广泛应用于各个领域。
深度学习课程大纲

深度学习课程大纲一、课程简介本课程旨在介绍深度学习的基本概念、理论和应用。
通过学习本课程,学员将能够掌握深度学习的核心原理,并能够运用深度学习算法解决实际问题。
二、课程目标1. 理解深度学习的基本原理和核心概念;2. 掌握深度神经网络的构建和训练方法;3. 熟悉常用的深度学习框架及其使用;4. 能够运用深度学习算法解决计算机视觉、自然语言处理等领域的问题。
三、课程内容第一章:深度学习基础1.1 深度学习简介1.2 人工神经网络的基本概念1.3 深度神经网络的优势与应用领域第二章:深度学习框架与工具2.1 TensorFlow介绍与安装2.2 PyTorch介绍与安装2.3 Keras介绍与安装第三章:前馈神经网络与反向传播算法3.1 前馈神经网络的结构与原理3.2 反向传播算法的推导与实现3.3 参数优化方法及其在深度学习中的应用第四章:卷积神经网络4.1 卷积神经网络的结构与原理4.2 经典卷积神经网络模型介绍(LeNet、AlexNet、VGG、ResNet 等)4.3 卷积神经网络在计算机视觉领域的应用案例第五章:循环神经网络5.1 循环神经网络的结构与原理5.2 长短时记忆网络(LSTM)与门控循环单元(GRU)5.3 循环神经网络在自然语言处理领域的应用案例第六章:深度强化学习6.1 强化学习基础概念介绍6.2 深度强化学习的原理与方法6.3 深度强化学习在游戏玩法优化等方面的应用第七章:生成对抗网络7.1 生成对抗网络的基本原理7.2 生成对抗网络中的生成器与判别器7.3 生成对抗网络在图像生成与风格转换等方面的应用四、教学方法1. 理论讲解:通过课堂讲授深度学习的基本原理和算法。
2. 实践操作:通过实际案例和编程实验,帮助学员巩固所学知识。
3. 课程项目:学员将组成小组开展深度学习项目,实践所学知识。
五、考核方式1. 课堂参与:根据学员课堂的提问和讨论参与情况进行评分;2. 作业与实验报告:针对课程设计的作业和实验,学员需要完成相应的报告;3. 项目评估:对学员在课程项目中的表现进行评估。
深度学习的基本理论与方法_图文

• 限制波尔兹曼机(Restricted Boltzmann Machine)
• 定义:假设有一个二部图,同层节点之间没有链接,一层是可 视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的 节点都是随机二值( 0,1值)变量节点,同时假设全概率分布 p(v,h)满足Boltzmann 分布,我们称这个模型是Restricted BoltzmannMachine (RBM)。
• Deep Boltzmann Machine(DBM)
Deep Belief Networks是在靠近可视层的部分使用贝叶斯信念网 络(即有向图模型),而在最远离可视层的部分使用Restricted Boltzmann Machine的模型。
• 卷积波尔兹曼机(Convolutional RBM)
深度学习的具体模型及方法
• 降噪自动编码器(Denoising AutoEncoders)
• 在自动编码器的基础上,对训练数据加入噪声,自动编码器 必须学习去去除这种噪声而获得真正的没有被噪声污染过的 输入。因此,这就迫使编码器去学习输入信号的更加鲁棒的 表达,这也是它的泛化能力比一般编码器强的原因。
Inference: prediction, recognition
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
• 人脑视觉机理
人的视觉系统的信息处理是分级的
高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象 ,越来越能表现语义或者意图
深度学习技术的原理与基本概念

深度学习技术的原理与基本概念深度学习是一种基于人工神经网络的机器学习方法,它是近年来人工智能领域的重要突破之一。
深度学习利用多层次的神经网络结构模拟人脑的工作原理,通过大量的无监督学习来从数据中提取特征并进行模式识别。
本文将介绍深度学习的原理和基本概念,帮助读者更好地理解这一先进的机器学习技术。
深度学习的原理可以追溯到人工神经网络的发展历程。
人工神经网络最初是受到生物神经网络的启发,模拟神经元之间的连接和传递信息的方式。
然而,早期的人工神经网络只有一层或很少几层神经元,不能处理复杂的问题。
随着计算机计算能力的提升和大数据的出现,研究者在神经网络中增加了更多的层次,使得网络可以学习到更丰富的特征并进行更复杂的任务。
深度学习的基本概念之一是多层感知器(Multi-Layer Perceptron,MLP)。
MLP是一种最基本的前馈神经网络结构,由输入层、隐藏层和输出层组成。
输入层接收原始数据,隐藏层将数据进行抽象和转化,输出层对隐藏层的结果进行分类或回归。
每个层次中的神经元都与相邻层次中的神经元连接,并通过权重来传递信息。
这些权重通过反向传播算法进行优化,使得网络能够学习到最佳的特征表示和输出结果。
深度学习的另一个重要概念是卷积神经网络(Convolutional Neural Network,CNN)。
CNN是一种特殊的神经网络结构,专门用于处理具有网格结构的数据,例如图像或语音。
它通过局部感受野和权值共享的方式,能够有效地提取图像中的空间特征。
CNN的每一层包含卷积层、池化层和全连接层。
卷积层利用一系列的卷积核对输入图像进行特征提取;池化层用于减少特征图的维度并保留重要信息;全连接层用于将特征图转化为最终的分类结果。
另外,深度学习的背后还有一些关键技术,例如激活函数、损失函数和优化算法。
激活函数是非线性函数,用于引入非线性变换和增加网络的表达能力。
常用的激活函数有sigmoid、ReLU和tanh等。
深度学习的理论基础和数据处理方法

深度学习的理论基础和数据处理方法近年来,深度学习已经成为计算机科学、人工智能领域的热点话题。
深度学习是指利用多层神经网络学习输入数据特征的机器学习方法,其成功应用已经涵盖了图像识别、自然语言处理、语音合成等多个领域。
深度学习的研究离不开理论基础和数据处理方法,下面我们探讨一下深度学习的这两个方面。
一、理论基础深度学习的理论基础主要来自于神经网络,而神经网络的理论基础则是统计学中的决策论。
决策论是指利用统计学方法对待处理数据的行为做出决策。
常见的统计学方法包括极大似然法、最小二乘法和贝叶斯方法等,这些方法大都与概率论有关。
在决策论中,设计一个能够最小化总体误差的算法是很常见的问题,而神经网络恰好是一种解决这种问题的算法。
神经网络在设计时考虑到了人类神经系统的结构,其基本单元为神经元。
神经元由多个输入端和一个输出端组成,其输出是某种激活函数的输出。
通常情况下,神经元的输入会被乘以相应的权重,然后加上一个偏置项,以作为其输出的函数输入。
当多个神经元组合成了一个网络时,其能够有效地接收和处理输入信息,从而输出预测结果。
如果将其与决策论相结合,就可以得到一种强大的预测算法。
由于神经网络的模型很容易变得非常复杂,这就需要损失函数来衡量网络输出结果之间的距离,从而将训练误差最小化。
最常见的损失函数是均方误差函数。
这个函数非常直观,就是计算实际输出和预测输出之间的误差平方和,而神经网络训练的目标就是将这个均方误差最小化。
我们知道,神经网络训练需要大量的数据来提高网络模型的预测准确率。
然而,现实数据往往具有很强的噪音和复杂性,这就要求处理这些数据的方法与模型具有足够的鲁棒性。
二、数据处理方法数据处理也是深度学习中不可忽视的一环。
在深度学习中,数据处理旨在将原始数据转化为模型能够接受并处理的输入数据格式。
如果数据处理不当,会影响后续模型的表现和预测准确率。
数据预处理可以包括对数据进行清洗、正则化、标准化等多个步骤。
深度学习的基本理论与方法

神经网络:采用BP算法调整参数,即采用迭代算法来 训练整个网络。随机设定初值,计算当前网络的输 出,然后根据当前输出和样本真实标签之间的差去 改变前面各层的参数,直到收敛;
深度学习:采用逐层训练机制。采用该机制的原因在 于如果采用BP机制,对于一个deep network(7层以 上),残差传播到最前面的层将变得很小,出现所 谓的gradient diffusion(梯度扩散)。
孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
动 机——为什么采用层次网络结构
• 人脑视觉机理
✓ 人的视觉系统的信息处理是分级的 ✓ 高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象
,越来越能表现语义或者意图 ✓ 抽象层面越高,存在的可能猜测就越少,就越利于分类
• 与浅层学习区别: 1)强调了模型结构的深度,通常有5-10多层的隐层
节点; 2)明确突出了特征学习的重要性,通过逐层特征变
换,将样本在原空间的特征表示变换到一个新特 征空间,从而使分类或预测更加容易。与人工规 则构造特征的方法相比,利用大数据来学习特征 ,更能够刻画数据的丰富内在信息。
深度学习
每个特征上就会稀疏。
• 结论:不一定特征越多越好!需要有多少个特征,需要学 习确定。
动 机——为什么采用层次网络结构
• 人脑视觉机理 ✓ 1981年的诺贝尔医学奖获得者 David Hubel和
TorstenWiesel发现了视觉系统的信息处理机制 ✓ 发现了一种被称为“方向选择性细胞的神经元细胞,当瞳
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
– Gehler and Nowozin, On Feature Combination for Multiclass Object Classification, ICCV’09
学习深度学习的基本概念与实践

学习深度学习的基本概念与实践深度学习是人工智能领域中的一种机器学习方法,其利用人工神经网络模拟人脑的神经网络结构和学习方式。
深度学习在计算机视觉、自然语言处理、语音识别等领域取得了显著的突破,成为当今人工智能发展的重要驱动力。
本文将介绍深度学习的基本概念和实践,并按照以下几个方面进行详细阐述。
第一章:深度学习的基本原理深度学习是建立在神经网络基础上的,其中最重要的构成单位是神经元。
神经元接收来自其他神经元的输入,并根据权重和激活函数的计算规则来产生输出。
深度学习的核心概念是多层次的神经网络结构,这些网络层级之间存在着前向和反向传播的信息传递。
前向传播是指从输入层到输出层的信号传递过程,而反向传播则是通过计算梯度来调整权重和偏置,从而达到优化模型的目的。
第二章:深度学习的常见算法在深度学习中,常用的算法有多层感知机(MLP)、卷积神经网络(CNN)和循环神经网络(RNN)等。
多层感知机是最早应用于深度学习的算法之一,通过多个全连接层实现对复杂问题的建模。
卷积神经网络则在图像处理中表现出色,通过卷积层和池化层提取图像的特征并进行分类。
循环神经网络则适用于处理带有时序信息的数据,如自然语言处理或语音识别。
第三章:深度学习的数据预处理深度学习对数据的质量和数量有很高的要求。
因此,数据预处理是深度学习项目中的关键步骤之一。
数据预处理包括数据清洗、特征提取和数据归一化等方面的工作。
数据清洗的目的是处理缺失值、异常值和噪声等问题,以保证数据的准确性。
特征提取则是从原始数据中提取出有用的特征,以便于深度学习模型的训练和预测。
数据归一化则是将不同尺度的数据转化为统一尺度,以避免某些特征对模型训练的影响。
第四章:深度学习的模型构建深度学习的模型构建包括选择模型架构、设置超参数和选择损失函数等步骤。
模型架构的选择是根据问题的特点和任务需求来确定,不同的任务可能需要不同的模型架构。
超参数的设置包括学习率、批处理大小和网络层数等,这些参数影响着模型的训练效果。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
类别标签
属性 图像特征
动 机——为什么采用层次网络结构
• 特征表示的粒度
具有结构性(或者语义) 的高层特征对于分类更有 意义
动 机——为什么采用层次网络结构
• 初级(浅层)特征表示
高层特征或图像,往往是由一些基本结构(浅层特征)组成的
动 机——为什么采用层次网络结构
• 结构性特征表示
动 机——为什么采用层次网络结构
深度学习的具体模型及方法
• Autoencoder (most Deep Learning methods)
– RBMs / DBMs [Lee / Salakhutdinov] – Denoising autoencoders [Ranzato] – Predictive sparse decomposition [Ranzato]
e.g.
Decoder
Encoder
Feed-forward bottom-up pat
Input (Image/ Features)
深度学习的具体模型及方法
• 自动编码器( AutoEncoder )
(Binary) Features
z
Encoder filters W Sigmoid function σ (.)
• 结论:不一定特征越多越好!需要有多少个特征,需要学 习确定。
动 机——为什么采用层次网络结构
• 人脑视觉机理 1981年的诺贝尔医学奖获得者 David Hubel和 TorstenWiesel发现了视觉系统的信息处理机制 发现了一种被称为“方向选择性细胞的神经元细胞,当瞳 孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
• 浅层学习的局限 人工神经网络(BP算法) —虽被称作多层感知机,但实际是种只含有一层隐层 节点的浅层模型 SVM、Boosting、最大熵方法(如LR,Logistic Regression) —带有一层隐层节点(如SVM、Boosting),或没有 隐层节点(如LR)的浅层模型 局限性:有限样本和计算单元情况下对复杂函数的表 示能力有限,针对复杂分类问题其泛化能力受限。
深度学习
• 好处:可通过学习一种深层非线性网络结 构,实现复杂函数逼近,表征输入数据分 布式表示。
深度学习 vs. 神经网络
神经网络 : : 深度学习
深度学习 vs. 神经网络
相同点:二者均采用分层结构,系统包括输入层、隐 层(多层)、输出层组成的多层网络,只有相邻层 节点之间有连接,同一层以及跨层节点之间相互无 连接,每一层可以看作是一个logistic 回归模型。 不同点: 神经网络:采用BP算法调整参数,即采用迭代算法来 训练整个网络。随机设定初值,计算当前网络的输 出,然后根据当前输出和样本真实标签之间的差去 改变前面各层的参数,直到收敛; 深度学习:采用逐层训练机制。采用该机制的原因在 于如果采用BP机制,对于一个deep network(7层以 上),残差传播到最前面的层将变得很小,出现所 谓的gradient diffusion(梯度扩散)。
深度学习的具体模型及方法
• 稀疏自动编码器(Sparse AutoEncoder)
深度学习的具体模型及方法
• 降噪自动编码器(Denoising AutoEncoders)
• 在自动编码器的基础上,对训练数据加入噪声,自动编码器 必须学习去去除这种噪声而获得真正的没有被噪声污染过的 输入。因此,这就迫使编码器去学习输入信号的更加鲁棒的 表达,这也是它的泛化能力比一般编码器强的原因。
深度学习的具体模型及方法
• 自动编码器( AutoEncoder ) • 稀疏自动编码器(Sparse AutoEncoder) • 降噪自动编码器(Denoising AutoEncoders)
深度学习的具体模型及方法
•自动编码器( AutoEncoder )
Output Features
Feed-back / generative / top-down path
动 机——为什么要自动学习特征
• 实验:LP-β Multiple Kernel Learning
– Gehler and Nowozin, On Feature Combination for Multiclass Object Classification, ICCV’09
• 采用39 个不同的特征
– PHOG, SIFT, V1S+, Region Cov. Etc.
• 在普通特征上MKL表现 有限 结论:特征更重要
动 机——为什么要自动学习特征
• 机器学习中,获得好的特征是识别成功的关键 • 目前存在大量人工设计的特征,不同研究对象特征不同,特征 具有多样性,如:SIFT, HOG, LBP等 • 手工选取特征费时费力,需要启发式专业知识,很大程度上靠 经验和运气 • 是否能自动地学习特征?
– 深度学习 – 特征学习 – 无监督特征学习
动 机
传统的模式识别方法:
Inference: prediction, recognition
Low-level sensing
Preprocessing
Feature extract.
Feature selection
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
深度学习
• 本质:通过构建多隐层的模型和海量训练数据( 可为无标签数据),来学习更有用的特征,从而 最终提升分类或预测的准确性。 “深度模型”是 手段,“特征学习”是目的。 • 与浅层学习区别: 1)强调了模型结构的深度,通常有5-10多层的隐层 节点; 2)明确突出了特征学习的重要性,通过逐层特征变 换,将样本在原空间的特征表示变换到一个新特 征空间,从而使分类或预测更加容易。与人工规 则构造特征的方法相比,利用大数据来学习特征 ,更能够刻画数据的丰富内在信息。
• 稀疏自动编码器(Sparse AutoEncoder)
Input Patch Filters Features Sparse Coding
深度学习的具体模型及方法
• 稀疏自动编码器(Sparse AutoEncoder)
Sparse Features
z
Encoder filters W
L1 Sparsit y
深度学习 vs. 神经网络
• 神经网络的局限性:
1)比较容易过拟合,参数比较难调整,而且 需要不少技巧; 2)训练速度比较慢,在层次比较少(小于等 于3)的情况下效果并不比其它方法更优;
深度学习训练过程
• 不采用BP算法的原因 (1)反馈调整时,梯度越来越稀疏,从顶层越往下 ,误差校正信号越来越小; (2)收敛易至局部最小,由于是采用随机值初始化 ,当初值是远离最优区域时易导致这一情况; (3)BP算法需要有标签数据来训练,但大部分数据 是无标签的;
深度学习的基本理论与方法
成科扬 2013年10月30日
目 录
• • • • • • • • • • 概述 动机 深度学习简介 深度学习的训练过程 深度学习的具体模型及方法 深度学习的性能比较 深度学习的应用 展望 参考文献 相关程序软件及链接
概 述
• 深度学习:一种基于无监督特征学习和特征 层次结构的学习方法 • 可能的的名称:
深度学习训练过程
AutoEncoder:
Class label
Decoder
e.g.
Encoder
Features
Decoder
Features
Encoder
Decoder
Encoder
Input Image
深度学习训练过程
• 第二步:自顶向下的监督学习 这一步是在第一步学习获得各层参数进的基础 上,在最顶的编码层添加一个分类器(例如罗杰 斯特回归、SVM等),而后通过带标签数据的监督 学习,利用梯度下降法去微调整个网络参数。 深度学习的第一步实质上是一个网络参数初始 化过程。区别于传统神经网络初值随机初始化, 深度学习模型是通过无监督学习输入数据的结构 得到的,因而这个初值更接近全局最优,从而能 够取得更好的效果。
动 机——为什么采用层次网络结构
• 人脑视觉机理
人的视觉系统的信息处理是分级的 高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象 ,越来越能表现语义或者意图 抽象层面越高,存在的可能猜测就越少,就越利于分类
动 机——为什么采用层次网络结构
• 视觉的层次性
属性学习,类别作为属性的一种组合映射 Lampert et al. CVPR’09
Decoder filters WT
e.g.
Sigmoid function σ (.)
σ (WTz)
σ (Wx)
(Binary) Input
x
深度学习的具体模型及方法
• 稀疏自动编码器(Sparse AutoEncoder)
限制每次得到的表达code尽量稀疏
限制每次得到的表达code尽量稀疏
深度学习的具体模型及方法
深度学习训练过程
• 第一步:采用自下而上的无监督学习 1)逐层构建单层神经元。 2)每层采用wake-sleep算法进行调优。每次 仅调整一层,逐层调整。 这个过程可以看作是一个feature learning 的过程,是和传统神经网络区别最大的部 分。
深度学习训练过程
• wake-sleep算法: 1)wake阶段: 认知过程,通过下层的输入特征(Input)和向上的认知( Encoder)权重产生每一层的抽象表示(Code),再通过当前的 生成(Decoder)权重产生一个重建信息(Reconstruction), 计算输入特征和重建信息残差,使用梯度下降修改层间的下行 生成(Decoder)权重。也就是“如果现实跟我想象的不一样, 改变我的生成权重使得我想象的东西变得与现实一样”。 2)sleep阶段: 生成过程,通过上层概念(Code)和向下的生成(Decoder)权 重,生成下层的状态,再利用认知(Encoder)权重产生一个抽 象景象。利用初始上层概念和新建抽象景象的残差,利用梯度 下降修改层间向上的认知(Encoder)权重。也就是“如果梦中 的景象不是我脑中的相应概念,改变我的认知权重使得这种景