主流的深度学习模型有哪些_光环大数据培训
光环大数据_大数据培训_云计算低成本部署随需使用的计算大脑

光环大数据_大数据培训_云计算低成本部署随需使用的计算大脑所谓云计算,非常教科书的说法是“能通过网络访问可扩展的、灵活的、可共享的物理或虚拟资源池,并按需自助获取和管理这些资源的模式。
其中资源实例包括服务器、操作系统、网络、软件、应用和存储设备等。
”从以上概念可以看出其包括软件、硬件等资源,简单说云计算有三层云平台,第一个是Iaas(Infrastructure as a Service),基础设施即服务,以前这些资源都是企业固有资源,现在可以不再拥有,通过平台服务商提供,减轻部署成本;第二个是Paas(Platform as a service),平台即服务,开放式的API可以由合作方提供行业和内容的服务;第三个是SaaS(Software as a service),软件即服务。
比如我们经常使用的手机APP等;云计算有一个很重要的特点和优势就是资源池化,就是把Iaas,Paas,Saas 层的资源(CPU、存储、网络等)放入到资源池中(云服务器),由云服务器进行集中管理。
云计算里所有的服务都是通过资源池里的资源而提供的。
我们已经进入了新一轮技术驱动的时代那如何理解大数据与云计算的关系?在中国计算机学会大数据专家委员会副主任车品觉看来:人工智能、深度学习,这些都是二十年前就有的技术,但是二十年前没有大数据,没有可以关联的数据。
所以大数据的故事从有了关联才真正开始。
那如何应用大数据?车品觉表示:首先要了解数据的生命周期。
“布点”、“收集”、“存储”,这些是前端,之后需要对数据做“识别”、“关联”、“分析”。
还有一个能把整个过程包起来的,就是“实时刷新”。
这就是数据的生命周期,它是一个闭环。
不管你怎么使用大数据,你首先要了解这个周期。
阿里巴巴集团首席技术官王坚在一次小型论坛上分享到:“云计算是工业时代的电,大数据就是福特生产线,云存储就是钢铁工业。
也就是说,没有钢铁,就没有电,就不会有大规模工业化生产。
机器学习和深度学习技能树、面试宝典_光环大数据培训

机器学习和深度学习技能树、面试宝典_光环大数据培训人工智能的浪潮正在席卷全球,诸多词汇时刻萦绕在我们耳边:人工智能(Artificial Intelligence)、机器学习(Machine Learning)、深度学习(Deep Learning)。
为了帮助大家更好帮助大家学习这些新技术,小遍整理了相关的学习资料,希望这些资料对刚入门的同行有所帮助。
一、人工智能、机器学习和深度学习的区别?机器学习:一种实现人工智能的方法机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。
与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。
举个简单的例子,当我们浏览网上商城时,经常会出现商品推荐的信息。
这是商城根据你往期的购物记录和冗长的收藏清单,识别出这其中哪些是你真正感兴趣,并且愿意购买的产品。
这样的决策模型,可以帮助商城为客户提供建议并鼓励产品消费。
机器学习直接来源于早期的人工智能领域,传统的算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等等。
从学习方法上来分,机器学习算法可以分为监督学习(如分类问题)、无监督学习(如聚类问题)、半监督学习、集成学习、深度学习和强化学习。
传统的机器学习算法在指纹识别、基于Haar的人脸检测、基于HoG特征的物体检测等领域的应用基本达到了商业化的要求或者特定场景的商业化水平,但每前进一步都异常艰难,直到深度学习算法的出现。
深度学习:一种实现机器学习的技术深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。
但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。
最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。
深度神经网络本身并不是一个全新的概念,可大致理解为包含多个隐含层的神经网络结构。
光环大数据的人工智能培训 让你快速掌握高薪人工智能技术_光环大数据培训

光环大数据的人工智能培训让你快速掌握高薪人工智能技术_光环大数据培训光环大数据的人工智能培训——让你快速掌握高薪人工智能技术。
近年来,科技巨头围绕人工智能产业,开展了大量的收购;标的包括人工智能初创企业、大数据公司)和芯片研发公司,人工智能以更快的速度发展中。
人工智能培训人工智能(ArtificialIntelligence),英文缩写为AI。
它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
在未来,人工智能将成为一种更常见、更重要的陪伴者。
人工智能助理会知道你在工作且有10分钟的空余时间,然后帮你完成待办事项中优先级靠前的事项。
人工智能将会让我们的生活更富成效和更具创造性。
毫无疑问,我们是在创造一个新的物种,一个在智力上可能没有上限的物种。
一些未来主义者预测,所谓的奇点,即计算机智能超越人类智能的时刻,可能会在2100年之前到来,而另一些人声称这将仍然只是科幻作品中的畅想。
这种可能性听起来令人振奋,但也让人觉得有点可怕——也许两者都有一些。
人工智能的发展将来对人类有益还是有害呢?光环大数据的人工智能培训讲师坚信是有益的。
那么人工智能培训光环大数据好不好?我们先来看看人工智能培训课程的安排吧。
如果课程安排都不尽如人意,还能奢望学生学到多少实用的技术呢?课程一阶段PythonWeb学习内容:PythonWeb内容实战人工智能培训学习目标:掌握HTML与CSS基础与核心、JavaScript原生开发,jQuery框架、XML与AJAX技术完成项目:大型网站设计项目、京东电商网站项目、JS原生特效编写实战。
课程二阶段PythonLinux学习内容:PythonLinux实战开发学习目标:熟练Linux安装与管理、熟练使用Shell核心编程,掌握服务器配置与管理。
完成项目:ERP员工管理系统开发、图书管理系统开发、数据库系统调优。
课程三阶段文件与数据库学习内容:文件与数据库实战开发学习目标:熟练掌握Python各类操作,熟练掌握数据库语法与函数编程,及大数据库解决方案完成项目:权限系统数据库设计、日志系统数据库设计、综合系统数据库设计。
深度学习如何处理认知错觉_光环大数据培训新

光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 深度学习如何处理认知错觉_光环大数据培训 上下滑动手机屏幕,让这些方块与你的屏幕对齐,你会发现„ 这些方块居然是水平排列的! 实际上,这类视觉错觉展示了人类感知世界的特殊方式,也是人类和目前深度学习认知的重要区别。
今天,我们就从这一不同出发,谈谈人类感知世界的机制,并由此畅想机器学习未来的发展方向。
回到上面这张图片,为什么这个错觉如此有效?它为什么能欺骗我们? 在上述的错觉中,你会注意到每一个在条纹上交替出现的浅蓝色和黑色方块的组合元素,会在特定的方向上看起来小一些。
除此之外,你还会注意到:图片中的深蓝色条纹之间的线跟之前的相比,高度不太一样。这两个错觉互相结合,形成了条纹在一直向上偏,或者向下偏的错觉。
即便将这幅图片旋转了90度,你仍然会发现浅蓝色的方块看起来的确是互相平行的。
这是因为深蓝色的方块总是看起来是一样大,并且它们内部的线条也有一样的长度。 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 和这一错觉“一脉相承”的还有另外两个视觉错觉:
咖啡厅墙面上的错觉观察http://www.richardgregory.org/papers/cafe_wall/cafe-wall.pdf Akiyoshi Kitaoka的边缘错觉http://www.psy.ritsumei.ac.jp/~akitaoka/tiltillusionreview2007.pdf
咖啡厅墙面上的错觉,是墙面方砖之间用来填充的砂浆的亮度在黑色和白色之间的时产生的。
这个错觉的效果是:每块方砖同相邻的方砖相比看起来会渐渐的变大(或者变小)
再来看看Akiyoshi Kitaoka的边缘错觉。 和Y型连接错觉: 同样,你会觉得这些实际水平的线,看起来歪了。 顺便说一句,这个错觉的效果在纵向也适用。 我们的大脑显然并没有将这幅图片作为一个整体来看待。相反,它将图像看待成若干图像的组合,并且识别彼此之间的相邻关系。为什么邻近关系对我们的视觉有如此强烈的影响?这是由于人类所具有的“直观功能”,让大脑更快地重建图片。
深度学习最常见的26个模型汇总

深度学习最常见的26个模型汇总
今天更新关于常见深度学习模型适合练手的项目。
这些项目大部分是我之前整理的,基本上都看过,大概俩特点:代码不长,一般50-200行代码,建议先看懂然后再实现和优化,我看基本上所有的实现都有明显可优化的地方;五脏俱全,虽然代码不长,但是该有的功能都有,该包含的部分也基本都有。
所以很适合练手,而且实现后还可保存好,以后很多任务可能就会用到。
本文包括简介、练手项目和我的建议(建议最好看看这部分)。
简介
本篇是深度学习最常见的26 个模型汇总的姐妹篇,建议先看那篇再看本篇。
本篇新增了26 个模型的练手项目。
练手项目
2.1 Feed forward neural networks (FF or FFNN) and perceptrons (P)
前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。
算是一种监督学习。
对应的代码:
https://github/danijar/layered
https://github/civisanalytics/muffnn
2.2 Radial basis function (RBF)
径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。
对应的代码:
https://github/eugeniashurko/rbfnnpy
2.3 Hopfield network (HN)
Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。
Windows安装CUDA+TensorFlow教程_光环大数据培训

Windows安装CUDA+TensorFlow教程_光环大数据培训0. 背景在Windows上使用GPU进行深度学习一直都不是主流,我们一般都首选Linux 作为深度学习操作系统。
但很多朋友如果只是想要了解深度学习,似乎没有必要专门装双系统或者改用Linux。
现实生活中,很多使用学校或者公司电脑的朋友也没有操作权限改换系统。
那么到底是否可以在Windows系统上设置深度学习框架,开发深度学习模型呢?好消息是越来越多的深度学习框架开始支持Windows,这使得在Windows上使用GPU加速学习过程也变成了可能。
很多朋友虽然没有一块很强劲的显卡,但也可以以较低的代价来了解在GPU上运行深度学习模型的过程。
值得欣喜的是,大部分Nvidia GeForce系列的显卡都可以使用CUDA,大部分有独显的笔记本理论上都可以使用GPU来“深度学习”。
即使加速效果不明显,但很多入门级的显卡依然可以用于TensorFlow,这至少可以帮助大家了解和熟悉这个框架。
请不要让缺少预算或者系统不兼容成为探索路上的拦路虎和借口。
本着探索的精神,我试着在两台Windows电脑上安装了CUDA(用于调用GPU)和TensorFlow(谷歌开发的深度学习工具库),把这个过程记录下来和大家分享。
如果在安装过程中大家遇到了什么具体问题,也可以评论给我。
在开始之前想再次提醒大家,在Windows上安装CUDA和TensorFlow有很多坑,对于各种软件版本以及系统设置的要求可谓非常刁钻,很容易就“误入陷阱”。
请大家严格对照我的操作流程,以防出错。
多图长文预警!!!使用教程时建议在电脑端阅读,可以放大图片。
1. 准备步骤请按照介绍下载以下软件备用,具体安装流程在第二部分介绍。
简单的说,我们需要 Windows 7/8/10, Server 2012/2016 + Python 3.5 + Visual Studio 2015 + CUDA 8.0 + CuDnn 6.0。
深度学习常用模型简介

▪ 由于Gradient Vanish影响,较高 层比较低层有更大的变动
▪ 从整体上,Fine-Tuning没有太大 改变Pre-Training的基础,也就 是说P(Y|X)的搜索空间是可以在 P(X)上继承的
Why Greedy Layer Wise Training Works
▪ Hidden Layer会有连向下一时间 Hidden Layer的边
▪ RNN功能强大
▪ Distributed hidden state that allows them to store a lot of information about the past efficiently.
多个隐含层 ▪ 能量模型与RBM不一样
两层DBM
DBM
▪Pre-training:
▪ Can (must) initialize from stacked RBMs
▪ 逐层学习参数,有效的从输入中提取信 息,生成模型P(X)
▪Discriminative fine-tuning:
▪ backpropagation
▪ Regularization Hypothesis
▪ Pre-training is “constraining” parameters in a region relevant to unsupervised dataset
▪ Better generalization
▪ Representations that better describe unlabeled data are more discriminative for labeled data
Deep Learning(深度学习)学习笔记整理系列之(二)_光环大数据培训

Deep Learning(深度学习)学习笔记整理系列之(二)_光环大数据培训四、关于特征特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的。
如果数据被很好的表达成了特征,通常线性模型就能达到满意的精度。
那对于特征,我们需要考虑什么呢?4.1、特征表示的粒度学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图片来说,像素级的特征根本没有价值。
例如下面的摩托车,从像素级别,根本得不到任何信息,其无法进行摩托车和非摩托车的区分。
而如果特征是一个具有结构性(或者说有含义)的时候,比如是否具有车把手(handle),是否具有车轮(wheel),就很容易把摩托车和非摩托车区分,学习算法才能发挥作用。
4.2、初级(浅层)特征表示既然像素级的特征表示方法没有作用,那怎样的表示才有用呢?1995 年前后,Bruno Olshausen和David Field 两位学者任职Cornell University,他们试图同时用生理学和计算机的手段,双管齐下,研究视觉问题。
他们收集了很多黑白风景照片,从这些照片中,提取出400个小碎片,每个照片碎片的尺寸均为16×16 像素,不妨把这400个碎片标记为S[i], i = 0,.. 399。
接下来,再从这些黑白风景照片中,随机提取另一个碎片,尺寸也是16×16 像素,不妨把这个碎片标记为T。
他们提出的问题是,如何从这400个碎片中,选取一组碎片,S[k], 通过叠加的办法,合成出一个新的碎片,而这个新的碎片,应当与随机选择的目标碎片T,尽可能相似,同时,S[k] 的数量尽可能少。
用数学的语言来描述,就是:Sum_k (a[k] * S[k]) –> T, 其中a[k] 是在叠加碎片S[k] 时的权重系数。
为解决这个问题,Bruno Olshausen和David Field 发明了一个算法,稀疏编码(Sparse Coding)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 主流的深度学习模型有哪些_光环大数据培训 0. 前言 深度学习大热以后各种模型层出不穷,很多朋友都在问到底什么是DNN、CNN和RNN,这么多个网络到底有什么不同,作用各是什么?
趁着回答:深度学习的主要分类是什么呀?这些网络cnn dbn dnm rnn是怎样的关系?这个问题的机会,我也想介绍一下主流的神经网络模型。因为格式问题和传播原因,我把原回答内容在这篇文章中再次向大家介绍。
在更详细的介绍各种网络前,首先说明: 大部分神经网络都可以用深度(depth)和连接结构(connection)来定义,下面会具体情况具体分析。 笼统的说,神经网络也可以分为有监督的神经网络和无/半监督学习,但其实往往是你中有我我中有你,不必死抠字眼。 有鉴于篇幅,只能粗略的科普一下这些非常相似的网络以及应用场景,具体的细节无法展开详谈,有机会在专栏中深入解析。
文章中介绍的网络包括: 1. 有监督的神经网络(Supervised Neural Networks) 1.1. 神经网络(Artificial Neural Networks)和深度神经网络(Deep Neural Networks) 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 追根溯源的话,神经网络的基础模型是感知机(Perceptron),因此神经网络也可以叫做多层感知机(Multi-layer Perceptron),简称MLP。单层感知机叫做感知机,多层感知机(MLP) 人工神经网络(ANN)。
那么多层到底是几层?一般来说有1-2个隐藏层的神经网络就可以叫做多层,准确的说是(浅层)神经网络(Shallow Neural Networks)。随着隐藏层的增多,更深的神经网络(一般来说超过5层)就都叫做深度学习(DNN)。然而,“深度”只是一个商业概念,很多时候工业界把3层隐藏层也叫做“深度学习”,所以不要在层数上太较真。在机器学习领域的约定俗成是,名字中有深度(Deep)的网络仅代表其有超过5-7层的隐藏层。
神经网络的结构指的是“神经元”之间如何连接,它可以是任意深度。以下图的3种不同结构为例,我们可以看到连接结构是非常灵活多样的。
图片来源:10 Misconceptions about Neural Networks 需要特别指出的是,卷积网络(CNN)和循环网络(RNN)一般不加Deep在名字中的原因是:它们的结构一般都较深,因此不需要特别指明深度。想对比的,自编码器(Auto Encoder)可以是很浅的网络,也可以很深。所以你会看到人们用Deep Auto Encoder来特别指明其深度。
应用场景:全连接的前馈深度神经网络(Fully Connected Feed Forward Neural Networks),也就是DNN适用于大部分分类(Classification)任务,比如数字识别等。但一般的现实场景中我们很少有那么大的数据量来支持DNN,所以纯粹的全连接网络应用性并不是很强。
1. 2. 循环神经网络(Recurrent Neural Networks)和递归神经网络(Recursive Neural Networks) 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 虽然很多时候我们把这两种网络都叫做RNN,但事实上这两种网路的结构事实上是不同的。而我们常常把两个网络放在一起的原因是:它们都可以处理有序列的问题,比如时间序列等。
举个最简单的例子,我们预测股票走势用RNN就比普通的DNN效果要好,原因是股票走势和时间相关,今天的价格和昨天、上周、上个月都有关系。而RNN有“记忆”能力,可以“模拟”数据间的依赖关系(Dependency)。为了加强这种“记忆能力”,人们开发各种各样的变形体,如非常著名的Long Short-term Memory(LSTM),用于解决“长期及远距离的依赖关系”。如下图所示,左边的小图是最简单版本的循环网络,而右边是人们为了增强记忆能力而开发的LSTM。
同理,另一个循环网络的变种 – 双向循环网络(Bi-directional RNN)也是现阶段自然语言处理和语音分析中的重要模型。开发双向循环网络的原因是语言/语音的构成取决于上下文,即“现在”依托于“过去”和“未来”。单向的循环网络仅着重于从“过去”推出“现在”,而无法对“未来”的依赖性有效的建模。
递归神经网络和循环神经网络不同,它的计算图结构是树状结构而不是网状结构。递归循环网络的目标和循环网络相似,也是希望解决数据之间的长期依赖问题。而且其比较好的特点是用树状可以降低序列的长度,从 降低到 ,熟悉数据结构的朋友都不陌生。但和其他树状数据结构一样,如何构造最佳的树状结构如平衡树/平衡二叉树并不容易。
应用场景:语音分析,文字分析,时间序列分析。主要的重点就是数据之间存在前后依赖关系,有序列关系。一般首选LSTM,如果预测对象同时取决于过去和未来,可以选择双向结构,如双向LSTM。
1.3. 卷积网络(Convolutional Neural Networks) 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 卷积网络早已大名鼎鼎,从某种意义上也是为深度学习打下良好口碑的功臣。不仅如此,卷积网络也是一个很好的计算机科学借鉴神经科学的例子。卷积网络的精髓其实就是在多个空间位置上共享参数,据说我们的视觉系统也有相类似的模式。
首先简单说什么是卷积。卷积运算是一种数学计算,和矩阵相乘不同,卷积运算可以实现稀疏相乘和参数共享,可以压缩输入端的维度。和普通DNN不同,CNN并不需要为每一个神经元所对应的每一个输入数据提供单独的权重。与池化(pooling)相结合,CNN可以被理解为一种公共特征的提取过程,不仅是CNN大部分神经网络都可以近似的认为大部分神经元都被用于特征提取。
以上图为例,卷积、池化的过程将一张图片的维度进行了压缩。从图示上我们不难看出卷积网络的精髓就是适合处理结构化数据,而该数据在跨区域上依然有关联。
应用场景:虽然我们一般都把CNN和图片联系在一起,但事实上CNN可以处理大部分格状结构化数据(Grid-like Data)。举个例子,图片的像素是二维的格状数据,时间序列在等时间上抽取相当于一维的的格状数据,而视频数据可以理解为对应视频帧宽度、高度、时间的三维数据。 2. 无监督的预训练网络(Unsupervised Pre-trained Neural Networks)
2.1. 深度生成模型(Deep Generative Models) 说到生成模型,大家一般想到的无监督学习中的很多建模方法,比如拟合一个高斯混合模型或者使用贝叶斯模型。深度学习中的生成模型主要还是集中于想使用无监督学习来帮助监督学习,毕竟监督学习所需的标签代价往往很高„所以请大家不要较真我把这些方法放在了无监督学习中。 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 2.1.1. 玻尔兹曼机(Boltzmann Machines)和受限玻尔兹曼机(Restricted Boltzmann Machines)
每次一提到玻尔兹曼机和受限玻尔兹曼机我其实都很头疼。简单的说,玻尔兹曼机是一个很漂亮的基于能量的模型,一般用最大似然法进行学习,而且还符合Hebb’s Rule这个生物规律。但更多的是适合理论推演,有相当多的实际操作难度。
而受限玻尔兹曼机更加实际,它限定了其结构必须是二分图(Biparitite Graph)且隐藏层和可观测层之间不可以相连接。此处提及RBM的原因是因为它是深度信念网络的构成要素之一。
应用场景:实际工作中一般不推荐单独使用RBM„ 2.1.2. 深度信念网络(Deep Belief Neural Networks) DBN是祖师爷Hinton在06年提出的,主要有两个部分: 1. 堆叠的受限玻尔兹曼机(Stacked RBM) 2. 一层普通的前馈网络。
DBN最主要的特色可以理解为两阶段学习,阶段1用堆叠的RBM通过无监督学习进行预训练(Pre-train),阶段2用普通的前馈网络进行微调。就像我上文提到的,神经网络的精髓就是进行特征提取。和后文将提到的自动编码器相似,我们期待堆叠的RBF有数据重建能力,及输入一些数据经过RBF我们还可以重建这些数据,这代表我们学到了这些数据的重要特征。
将RBF堆叠的原因就是将底层RBF学到的特征逐渐传递的上层的RBF上,逐渐抽取复杂的特征。比如下图从左到右就可以是低层RBF学到的特征到高层RBF 光环大数据--大数据培训&人工智能培训 http://hadoop.aura-el.com
光环大数据 http://hadoop.aura-el.com 学到的复杂特征。在得到这些良好的特征后就可以用第二部分的传统神经网络进行学习。
多说一句,特征抽取并重建的过程不仅可以用堆叠的RBM,也可以用后文介绍的自编码器。
应用场景:现在来说DBN更多是了解深度学习“哲学”和“思维模式”的一个手段,在实际应用中还是推荐CNN/RNN等,类似的深度玻尔兹曼机也有类似的特性但工业界使用较少。
2.1.3. 生成式对抗网络(Generative Adversarial Networks) 生成式对抗网络用无监督学习同时训练两个模型,内核哲学取自于博弈论„ 简单的说,GAN训练两个网络:1. 生成网络用于生成图片使其与训练数据相似 2. 判别式网络用于判断生成网络中得到的图片是否是真的是训练数据还是伪装的数据。生成网络一般有逆卷积层(deconvolutional layer)而判别网络一般就是上文介绍的CNN。自古红蓝出CP,下图左边是生成网络,右边是判别网络,相爱相杀。
熟悉博弈论的朋友都知道零和游戏(zero-sum game)会很难得到优化方程,或很难优化,GAN也不可避免这个问题。但有趣的是,GAN的实际表现比我们预期的要好,而且所需的参数也远远按照正常方法训练神经网络,可以更加有效率的学到数据的分布。