第六章 深度学习
深度学习课程大纲

深度学习课程大纲一、课程简介本课程旨在介绍深度学习的基本概念、理论和应用。
通过学习本课程,学员将能够掌握深度学习的核心原理,并能够运用深度学习算法解决实际问题。
二、课程目标1. 理解深度学习的基本原理和核心概念;2. 掌握深度神经网络的构建和训练方法;3. 熟悉常用的深度学习框架及其使用;4. 能够运用深度学习算法解决计算机视觉、自然语言处理等领域的问题。
三、课程内容第一章:深度学习基础1.1 深度学习简介1.2 人工神经网络的基本概念1.3 深度神经网络的优势与应用领域第二章:深度学习框架与工具2.1 TensorFlow介绍与安装2.2 PyTorch介绍与安装2.3 Keras介绍与安装第三章:前馈神经网络与反向传播算法3.1 前馈神经网络的结构与原理3.2 反向传播算法的推导与实现3.3 参数优化方法及其在深度学习中的应用第四章:卷积神经网络4.1 卷积神经网络的结构与原理4.2 经典卷积神经网络模型介绍(LeNet、AlexNet、VGG、ResNet 等)4.3 卷积神经网络在计算机视觉领域的应用案例第五章:循环神经网络5.1 循环神经网络的结构与原理5.2 长短时记忆网络(LSTM)与门控循环单元(GRU)5.3 循环神经网络在自然语言处理领域的应用案例第六章:深度强化学习6.1 强化学习基础概念介绍6.2 深度强化学习的原理与方法6.3 深度强化学习在游戏玩法优化等方面的应用第七章:生成对抗网络7.1 生成对抗网络的基本原理7.2 生成对抗网络中的生成器与判别器7.3 生成对抗网络在图像生成与风格转换等方面的应用四、教学方法1. 理论讲解:通过课堂讲授深度学习的基本原理和算法。
2. 实践操作:通过实际案例和编程实验,帮助学员巩固所学知识。
3. 课程项目:学员将组成小组开展深度学习项目,实践所学知识。
五、考核方式1. 课堂参与:根据学员课堂的提问和讨论参与情况进行评分;2. 作业与实验报告:针对课程设计的作业和实验,学员需要完成相应的报告;3. 项目评估:对学员在课程项目中的表现进行评估。
深度学习PPT课件

.
深度学习(DL)
BP 神经网络(BPNNs)网络存在的主要问题: 1. 一般要得到较好的训练效果,隐层数目不能
太少,当图片大的时候,需要的权值会非常多; 2. 对平移、尺度变化敏感(比如数字偏左上角,
右下角时即识别失败); 3. 图片在相邻区域是相关的,而这种网络只是
一股脑把所有像素扔进去,没有考虑图片相关 性。
一般的语音识别多提取每帧长25ms、帧移 10ms的语音对应的MFCC特征,该文提取使用 fBank特征。
8
.
CNN CNN结构图:
9
.
CNN
输入图像: 28*28
卷积层: 均为5*5
采样核大 小:均为 2*2。
在Toolbox的实现中,C1共有6个卷积核,则卷积结果6个特征map;卷 积层的一个map与上层的所有map都关联,如上图的S2和C3,即C3共 有6*12个卷积核,
CNN经典程序下 载:https:///rasmusbergpalm/DeepLearnToolbox
7
.
语音识别
参考:《基于深度学习的语音识别应用研究_ 张建华》
该文献通过深度神经网络提取语音特征的方法、 深度神经网络提取声韵母属性的方法、深度学 习搭建声学模型的方法对比;
假设上一层的map大 小是n*n、卷积核的 大小是k*k,则该层 的map大小是(nk+1)*(n-k+1),比如 上图的24*24的map 大小24=(28-5+1)。
参见网址:/lu597203933/article/details/46575871
11
1991, 通过无导学习的深度学习(Deep Learning,DL)在 实际中可以运用;
深度学习技术中的模型构建

深度学习技术中的模型构建第一章:深度学习深度学习是一种人工神经网络,在计算机领域中,它是人工智能的一种形式。
它模仿了人脑的神经网络系统的工作原理,通过使用多层次的模型对现实世界中的数据进行解析和学习。
深度学习技术可以用于图像,语音和自然语言处理的各种应用,它们从原始的非结构化数据中提取特征并建立模型来支持决策制定。
深度学习被广泛应用于自然语言处理,目标检测,图像分类和预测等领域,它能够大大提高行业效率和准确性。
第二章:模型构建在深度学习领域,模型构建是一个非常重要的步骤。
模型的构建可以影响到深度学习的准确性和可靠性。
Deep Neural Networks (DNNs)和Convolutional Neural Networks(CNNs)是常用的深度学习模型。
在这两种模型中,有很多种结构可以选择,比如循环神经网络(RNN),长短期记忆网络(LSTM)和残差网络(ResNet)等。
第三章:DNNsDNN是深度学习中最基本的网络。
它由多个层级组成,在每一层级中,都有一些隐藏单元(neurons)在传递信息。
由于层级之间许多的交互,DNN的训练过程通常需要使用反向传播算法。
DNN可以用于分类和预测,是一种非常通用的模型。
第四章:CNNsCNN主要用于图像处理,包括图像分类和对象识别等任务。
卷积层和池化层是CNN的主要结构。
卷积层可以找出图像中的特定特征,池化层可以降低数据的尺寸并提取图像特征。
CNN通过使用多个卷积和池化层,可以捕获到图像中更细粒度的特征。
与DNN相比,CNN要求更少的手动功能设计,因为它们在处理图像等数据时自动提取非常好的特征。
第五章:RNNsRNN是一种经典的深度学习模型,广泛应用于自然语言处理(NLP)和时间序列预测等领域。
RNN是根据数据的上下文基于前一时刻的状态来预测下一步的内容。
LSTM是一种特殊类型的RNN,它对上一个状态的“记忆”更加长久,更能处理长序列数据。
在自然语言处理方面,LSTM已经在机器翻译和语音识别等NLP应用中被广泛使用。
第六章 深度学习

背景
• 在图像识别、语音识别、天气预测、基因表达等方面。目前我们通过 机器学习去解决这些问题的思路都是这样的:
•
从开始的通过传感器来获得数据。然后经过预处理、特征提取、特征 选择,再到推理、预测或者识别。最后一个部分,也就是机器学习的
部分,绝大部分的工作是在这方面做的。
• 中间的三部分,概括起来就是特征表达。良好的特征表达,对最终算 法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都
概述
• 2006年的3篇关于深度学习的突破性论文:
• Hinton, G. E., Osindero, S. and Teh, Y.,A fast learning algorithm
for deep belief nets.Neural Computation 18:1527-1554, 2006 • Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo
3、结构性特征表示
• 直观上说,就是找到make sense的小patch再将其进行combine,就 得到了上一层的feature,递归地向上learning feature。
3、结构性特征表示
• 在不同object上做training时,所得的edge basis 是非常相似的,但 object parts和models 就会completely different了(那咱们分辨 car或者face是不是容易多了):
关于特征
• 特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的
。如果数据被很好的表达成了特征,通常线性模型就能达到满意 的精度。那对于特征,我们需要考虑什么呢?
1、特征表示的粒度
• 学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图 片来说,像素级的特征根本没有价值。例如下面的摩托车,从像素级 别,根本得不到任何信息,其无法进行摩托车和非摩托车的区分。而 如果特征是一个具有结构性的时候,比如是否具有车把手(handle) ,是否具有车轮(wheel),就很容易把摩托车和非摩托车区分,学 习算法才能发挥作用。
深度学习讲义

谯平 2016年07月21日
目录
• 什么是深度学习 • 为什么需要深度学习 • 深度学习如何进行训练 • 深度学习常用模型 • 深度学习框架Caffe
什么是深度学习-概述
• 深度学习:一种基于无监督特征学习和特征 层次结构的学习方法
• 基本原理:深度学习的概念源于人工神经网 络的研究。深度学习通过组合低层特征形成 更加抽象的高层表示属性类别或特征,以发 现数据的分布式特征表示。
为什么需要深度学习-深层
• 结构性特征表示
为什么需要深度学习-深层
• 浅层学习的局限 ✓ 人工神经网络(BP算法) —虽被称作多层感知机,但实际是种只含有一层隐层
节点的浅层模型 ✓ SVM、Boosting、最大熵方法(如LR,Logistic
Regression) —带有一层隐层节点(如SVM、Boosting),或没有
传统的模式识别方法:
底层感知
预处理
特征提取 特征选择 预测与识别
• 良好的特征表达,对最终算法的准确性起了非常关键的作用; • 识别系统主要的计算和测试工作耗时主要集中在特征提取部分; • 特征的样式目前一般都是人工设计的,靠人工提取特征。
为什么需要深度学习-特征
• 机器学习中,获得好的特征是识别成功的关键 • 目前存在大量人工设计的特征,不同研究对象特
孔发现了眼前的物体的边缘,而且这个边缘指向某个方向 时,这种神经元细胞就会活跃
为什么需要深度学习-源头
• 由此可知人的视觉系统的信息处理是分级的,高层的特征 是低层特征的组合,从低层到高层的特征表示越来越抽象 ,越来越能表现语义或者意图,抽象层面越高,存在的可 能猜测就越少,就越利于分类。
为什么需要深度学习-特征
学习深度学习的基本概念与实践

学习深度学习的基本概念与实践深度学习是人工智能领域中的一种机器学习方法,其利用人工神经网络模拟人脑的神经网络结构和学习方式。
深度学习在计算机视觉、自然语言处理、语音识别等领域取得了显著的突破,成为当今人工智能发展的重要驱动力。
本文将介绍深度学习的基本概念和实践,并按照以下几个方面进行详细阐述。
第一章:深度学习的基本原理深度学习是建立在神经网络基础上的,其中最重要的构成单位是神经元。
神经元接收来自其他神经元的输入,并根据权重和激活函数的计算规则来产生输出。
深度学习的核心概念是多层次的神经网络结构,这些网络层级之间存在着前向和反向传播的信息传递。
前向传播是指从输入层到输出层的信号传递过程,而反向传播则是通过计算梯度来调整权重和偏置,从而达到优化模型的目的。
第二章:深度学习的常见算法在深度学习中,常用的算法有多层感知机(MLP)、卷积神经网络(CNN)和循环神经网络(RNN)等。
多层感知机是最早应用于深度学习的算法之一,通过多个全连接层实现对复杂问题的建模。
卷积神经网络则在图像处理中表现出色,通过卷积层和池化层提取图像的特征并进行分类。
循环神经网络则适用于处理带有时序信息的数据,如自然语言处理或语音识别。
第三章:深度学习的数据预处理深度学习对数据的质量和数量有很高的要求。
因此,数据预处理是深度学习项目中的关键步骤之一。
数据预处理包括数据清洗、特征提取和数据归一化等方面的工作。
数据清洗的目的是处理缺失值、异常值和噪声等问题,以保证数据的准确性。
特征提取则是从原始数据中提取出有用的特征,以便于深度学习模型的训练和预测。
数据归一化则是将不同尺度的数据转化为统一尺度,以避免某些特征对模型训练的影响。
第四章:深度学习的模型构建深度学习的模型构建包括选择模型架构、设置超参数和选择损失函数等步骤。
模型架构的选择是根据问题的特点和任务需求来确定,不同的任务可能需要不同的模型架构。
超参数的设置包括学习率、批处理大小和网络层数等,这些参数影响着模型的训练效果。
第六章DEM精度分析

第六章DEM精度分析在机器学习中,评估模型的性能是非常重要的。
在深度学习中,一个常用的评估指标是DEM(Digital Elevation Model)的精度。
DEM是描述地表高程变化的地理数据模型,可以用于地形分析、水文模拟、地理信息系统等领域。
DEM精度分析的目的是评估DEM数据的准确性,确定DEM数据的可靠性,并帮助选择合适的DEM数据应用。
DEM精度分析通常包括以下几个方面:1.垂直精度分析:垂直精度是指DEM数据的高程值与实际地面高程之间的差异。
垂直精度分析可以通过与实地测量数据进行对比来进行。
实地测量可以使用GPS仪器、全站仪等设备进行,同时需要注意选择具有代表性的样本点进行测量。
通过对比DEM数据和实地测量数据的差异,可以评估DEM数据的垂直精度。
2.水平精度分析:水平精度是指DEM数据的X、Y坐标值与实际地面位置之间的差异。
水平精度可以通过DEM数据间的比对来进行,比如将不同分辨率的DEM数据进行比对,或者将DEM数据与其他地理信息数据进行叠加分析。
通过比对不同数据源的DEM数据,可以评估DEM数据的水平精度。
3.分辨率分析:分辨率是指DEM数据中每个像素所代表的地面面积的大小。
分辨率越高,每个像素所代表的地面面积越小,DEM数据的细节程度越高。
分辨率分析可以通过观察DEM数据的细节来进行,比如通过DEM 数据的等高线图、坡度图等来观察DEM数据的细节表达能力。
通过对DEM 数据的分辨率进行分析,可以根据应用需求选择合适的DEM数据。
4.精度误差分析:精度误差是指DEM数据在采集、处理、转换过程中产生的误差。
精度误差分析可以通过DEM数据的元数据来进行,元数据包括DEM数据的采集时间、处理方法、水平精度等信息。
通过对DEM数据的精度误差进行分析,可以评估DEM数据的可靠性。
DEM精度分析是一个非常复杂的过程,需要综合运用地理信息系统、遥感技术、测绘技术等多种手段进行。
在实际应用中,DEM精度分析可以作为评估DEM数据质量、选择合适DEM数据、优化DEM处理方法的重要依据。
人工智能基础

人工智能基础人工智能基础第一章:什么是人工智能人工智能(Artificial Intelligence)被定义为通过计算机来模拟人类智能的一种技术,包括机器学习、自然语言处理、计算机视觉、知识推理等多个领域。
人工智能应用的场景非常广泛,如智能音响、自动驾驶、医学影像诊断等。
在实际应用中,人工智能通常依赖于大量数据输入和训练,通过算法引导计算机进行决策和预测。
人工智能技术的目标是实现类似人类的学习、推理、分析、理解和决策的功能。
第二章:人工智能模型人工智能模型指的是一组算法和数学公式,用于进行数据分析和预测。
人工智能模型有很多种,其中最常用的包括决策树、神经网络、支持向量机、贝叶斯分类器等。
每一种模型都有其特定的优点和适用场景。
例如,神经网络可以处理非常复杂的非线性问题,而贝叶斯分类器则适用于处理大量输入数据和类别分布不均的情况。
人工智能模型的训练过程通常需要大量数据,机器会通过学习这些数据中的模式和特征,来创建一个算法模型,用于进行未来的预测和决策。
模型训练的目的是最小化预测误差,并在能够预测未知数据时拥有高精度、高泛化性。
为了弥补数据量不足的问题,人工智能技术还可以采用数据增强和迁移学习等手段来提升模型性能。
第三章:机器学习机器学习(Machine Learning)是人工智能领域中最基础的技术之一,在人工智能的应用场景中得到了广泛的运用。
机器学习通常分为三种主要类型:监督学习、无监督学习和半监督学习。
其中,监督学习是最常用的机器学习技术之一,它通过训练数据和相应的标签来建立分类和回归模型。
监督学习的典型应用场景包括图像分类、物体识别、语音识别等。
无监督学习与监督学习的区别在于,它不需要标签数据,而是只使用原始数据进行学习和聚类。
无监督学习的应用场景包括推荐系统、高维数据可视化、异常检测等。
半监督学习则是监督学习和无监督学习的结合,它使用少量的标签数据和大量的未标签数据来进行学习和分类,可以提高分类效果和减少训练数据的需求。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2、初级(浅层)特征表示
• 为解决这个问题,David Field 发明了一个算法,稀疏编码(Sparse Coding)。 • 稀疏编码是一个重复迭代的过程,每次迭代分两步: 1)选择一组 S[k],然后调整 a[k],使得Sum_k (a[k] * S[k]) 最接近 T 2)固定住 a[k],在 400 个碎片中,选择其它更合适的碎片S’[k],替代 原先的 S[k],使得Sum_k (a[k] * S’[k]) 最接近 T。 • 经过几次迭代后,最佳的 S[k] 组合,被遴选出来了。令人惊奇的是
2、初级(浅层)特征表示
• 另外,大牛们还发现,不仅图像存在这个规律,声音也存在。他们从 未标注的声音中发现了20种基本的声音结构,其余的声音可以由这 20种基本结构合成。(同声传译的秘诀之一)
3、结构性特征表示
•
小块的图形可以由基本edge构成,更结构化,更复杂的,具有概念 性的图形如何表示呢? • 这就需要更高层次的特征表示,比如V2,V4。因此V1看像素级是像 素级。V2看V1是像素级,这个是层次递进的,高层表达由底层表达 的组合而成。专业点说就是基basis。V1取提出的basis是边缘,然后 V2层是V1层这些basis的组合,这时候V2区得到的又是高一层的 basis。即上一层的basis组合的结果,上上层又是上一层的组合 basis……(HHT有类似之处)
Larochelle,Greedy LayerWise Training of Deep Networks, in J.
Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007 • Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007
• 半个世纪过去了,人工智能的进展,远远没有达到图灵试验的标准。 这不仅让多年翘首以待的人们,心灰意冷,认为人工智能是忽悠,相 关领域是“伪科学”。 • 自 2006 年以来,机器学习领域,取得了突破性的进展。图灵试验, 至少不是那么可望而不可及了。至于技术手段,不仅仅依赖于云计算 对大数据的并行处理能力,而且依赖于算法。这个算法就是,Deep Learning。借助于 Deep Learning 算法,人类终于找到了如何处理“ 抽象概念”这个亘古难题的方法。
概述
• 2006年的3篇关于深度学习的突破性论文:
• Hinton, G. E., Osindero, S. and Teh, Y.,A fast learning algorithm
for deep belief nets.Neural Computation 18:1527-1554, 2006 • Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo
人脑视觉机理
• 这个发现激发了人们对于神经系统的进一步思考。神经-中枢-大脑的 工作过程,或许是一个不断迭代、不断抽象的过程。 • 这里的关键词有两个,一个是抽象,一个是迭代。从原始信号,做低
级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象
的概念。
人脑视觉机理
• 例如,从原始信号摄入开始(瞳孔摄入像素 Pixels),接着做初步 处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定, 眼前的物体的形状,是圆形的),然后进一步抽象(大脑进一步判定 该物体是只气球)。
关于特征
• 特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的
。如果数据被很好的表达成了特征,通常线性模型就能达到满意 的精度。那对于特征,我们需要考虑什么呢?
1、特征表示的粒度
• 学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图 片来说,像素级的特征根本没有价值。例如下面的摩托车,从像素级 别,根本得不到任何信息,其无法进行摩托车和非摩托车的区分。而 如果特征是一个具有结构性的时候,比如是否具有车把手(handle) ,是否具有车轮(wheel),就很容易把摩托车和非摩托车区分,学 习算法才能发挥作用。
概述
• 2012年11月,微软在中国天津的一次活动上公开演示了一个全自动
的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完 成语音识别、英中机器翻译和中文语音合成,效果非常流畅。据报道
,后面支撑的关键技术也是立百 度研究院,其中第一个成立的就是“深度学习研究所” 。 • 2013年3月谷歌收购了加拿大神经网络方面的创业公司 DNNresearch,DNNresearch公司是由多伦多大学教授Geoffrey Hinton与他的两个研究生Alex Krizhevsky和Ilya Sutskever于2012 年成立,由于谷歌在本次收购中没有获得任何实际的产品或服务,所 以本次收购实质上属于人才性收购,收购的主体实为了这三人团队。
,被选中的 S[k],基本上都是照片上不同物体的边缘线,这些线段形
状相似,区别在于方向。 • David Field 的算法结果,与 杀猫者David Hubel 的生理发现,不谋
而合!
2、初级(浅层)特征表示
• 也就是说,复杂图形,往往由一些基本结构组成。比如下图:一个 图可以通过用64种正交的edges(可以理解成正交的基本结构)来线 性表示。比如样例的x可以用1-64个edges中的三个按照0.8,0.3,0.5 的权重调和而成。而其他基本edge没有贡献,因此均为0
3、结构性特征表示
• 直观上说,就是找到make sense的小patch再将其进行combine,就 得到了上一层的feature,递归地向上learning feature。
3、结构性特征表示
• 在不同object上做training时,所得的edge basis 是非常相似的,但 object parts和models 就会completely different了(那咱们分辨 car或者face是不是容易多了):
人脑视觉机理
• 这个生理学的发现,促成了计算机人工智能,在四十年后的突破
性发展。 • 总的来说,人的视觉系统的信息处理是分级的。从低级的V1区提
取边缘特征,再到V2区的形状或者目标的部分等,再到更高层
,整个目标、目标的行为等。也就是说高层的特征是低层特征的 组合,从低层到高层的特征表示越来越抽象,越来越能表现语义 或者意图。而抽象层面越高,存在的可能猜测就越少,就越利于 分类。
2、初级(浅层)特征表示
• 既然像素级的特征表示方法没有作用,那怎样的表示才有用呢? • 1995 年前后,David Field 试图同时用生理学和计算机的手段,双管 齐下,研究视觉问题。 • 他们收集了很多黑白风景照片,从这些照片中,提取出400个小碎 片,每个照片碎片的尺寸均为 16x16 像素,不妨把这400个碎片标记 为 S[i], i = 0,.. 399。接下来,再从这些黑白风景照片中,随机提取 另一个碎片,尺寸也是 16x16 像素,不妨把这个碎片标记为 T。
背景
• 在图像识别、语音识别、天气预测、基因表达等方面。目前我们通过 机器学习去解决这些问题的思路都是这样的:
•
从开始的通过传感器来获得数据。然后经过预处理、特征提取、特征 选择,再到推理、预测或者识别。最后一个部分,也就是机器学习的
部分,绝大部分的工作是在这方面做的。
• 中间的三部分,概括起来就是特征表达。良好的特征表达,对最终算 法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都
耗在这一大部分。但这块实际中一般都是人 年的诺贝尔医学奖,颁发给了 David Hubel(出生于加拿大的美 国神经生物学家) 和TorstenWiesel,以及 Roger Sperry。前两位 的主要贡献,是“发现了视觉系统的信息处理”:可视皮层是分级的 :
人脑视觉机理
1. 概述、背景
2.人脑视觉机理、关于特征
深 度 学 习
3. Deep Learning 基本思想、浅层学习
4.深度学习与神经网络(Neural Network)
5. DP的常用模型与方法 6.Dp的总结 7. Dp的未来 8.DP的问题
概述
• Artificial Intelligence(人工智能)是人类最美好的梦想之一。 • 图灵(计算机和人工智能的鼻祖)在 1950 年的论文里,提出图灵试 验的设想,即,隔墙对话,你将不知道与你谈话的,是人还是电脑。 这无疑给计算机,尤其是人工智能,预设了一个很高的期望值。
或实现人类的学习行为,以获取新的知识或技能,重新组织已有 的知识结构使之不断改善自身的性能的学科。机器能否像人类一
样能具有学习能力呢?
• 1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序 具有学习能力,它可以在不断的对弈中改善自己的棋艺。4年后 ,这个程序战胜了设计者本人。又过了3年,这个程序战胜了美 国一个保持8年之久的常胜不败的冠军。这个程序向人们展示了 机器学习的能力,提出了许多令人深思的社会问题与哲学问题
• 1958 年,David Hubel 等,研究瞳孔区域与大脑皮层神经元的对应 关系。他们在猫的后脑头骨上,开了一个3 毫米的小洞,向洞里插入 电极,测量神经元的活跃程度。 • 他们在小猫的眼前,展现各种形状、各种亮度的物体。并且,在展现 每一件物体时,还改变物体放置的位置和角度。他们期望通过这个办 法,让小猫瞳孔感受不同类型、不同强弱的刺激。目的是去证明一个 猜测。位于后脑皮层的不同视觉神经元,与瞳孔所受刺激之间,存在 某种对应关系。一旦瞳孔受到某一种刺激,后脑皮层的某一部分神经 元就会活跃。 • 经历了很多天反复的枯燥的试验,同时牺牲了若干只可怜的小猫, David Hubel 发现了一种被称为“方向选择性细胞”的神经元细胞。 当瞳孔发现了眼前的物体的边缘,而且这个边缘指向某个方向时,这 种神经元细胞就会活跃。