大数据人工智能-徐伟
应用型本科财务管理专业实践教学体系创新探索——以广东理工学院财务管理专业为例

第32期2019年11月No.32November ,2019应用型本科财务管理专业实践教学体系创新探索盛洁,赵燕,梁燕瑜,徐伟(广东理工学院会计学院,广东肇庆526100)摘要:实践教学由于高等教育的改革、财会领域的转型、具备理论教学不具备的独特优势,在本科教育教学和人才培养中越来越受到重视。
培养新时代的应用型财务管理人才,必须把教学的着力点放在实践教学这个重要环节上。
文章在文献综述的基础上,结合实践教学体系的一般理论,着重介绍了广东理工学院会计学院对于实践教学体系的探索。
它的总框架是由一个目标、两个层面、三项保障、四类资源、五大利益主体构成。
这样的探索成果,对于其他地方应用型高校实践教学体系的探索也会有一定的借鉴作用。
关键词:财务管理;实践教学;应用型本科;财务转型中图分类号:G718.5文献标志码:A 江苏科技信息Jiangsu Science &Technology Information基金项目:广东省教育厅2017年度本科高校高等教育教学改革项目;项目名称:应用型本科财务管理专业实践教学体系的构建与研究(630)。
广东理工学院2017年质量工程项目;项目名称:应用型本科财务管理专业实践教学体系的构建与探索;项目编号:JXGG2017011。
作者简介:盛洁(1977—),女,江西九江人,副教授,硕士;研究方向:财务管理,会计学。
——以广东理工学院财务管理专业为例1研究背景实践教学在本科教育教学和人才培养中越来越受到重视和推崇。
这是由三大因素共同决定的:高等教育改革、当今财务转型、实践教学的自身优势。
实践教学是当今高等教育教学改革的一大趋势,是健全合作共赢、开放共享的实践育人机制的必经环节。
《关于进一步加强高校实践育人工作的若干意见》(教思政〔2012〕1号)明确提出了要强化高校实践教学环,从量化指标上对实践环节进行了若干规定。
《教育部关于加快建设高水平本科教育全面提高人才培养能力的意见》(教高〔2018〕2号)中有“健全教师队伍协同机制,统筹专兼职教师队伍建设,提高实践教学水平”“综合运用校内外资源,建设满足实践教学需要的实验实习实训平台”“进一步提高实践教学的比重,大力推动与行业部门、企业共同建设实践教育基地”的表述,充分彰显了政府对于实践教学的重视。
大数据时代人工智能在计算机网络技术中的运用分析

工艺与技术1162021年第1期熊 亿(上饶幼儿师范高等专科学校,江西 上饶 334000)摘 要:在大数据时代背景下,计算机技术、通信技术等迅速发展,人工智能应用程度也不断加深,给人们的日常工作和生活带来了诸多影响。
随着数据信息的急剧增多,人们对信息处理的速度和安全性等提出了更高的要求。
为能够更加迅速地处理各类信息,有效避免计算机系统崩溃现象的发生,提高计算机系统问题的处理效率,需将人工智能有效应用到计算机网络技术中。
对此,文章主要阐述人工智能的应用价值和意义,并提出其在计算机网络技术中的具体应用方法。
关键词:大数据时代;人工智能;计算机网络技术中图分类号:TP393.0;TP18 文献标志码:A 文章编号:2096-3092(2021)01-0116-03大数据时代人工智能在计算机网络技术中的运用分析尽管大数据技术让人们的生产生活更加便捷,但是也由此引发了更为复杂的网络安全问题,出现了更加庞大的数据信息,影响数据信息处理的效率。
如今,物联网、大数据及云计算等新兴技术高速发展,我国智能化程度不断加深,计算机网络技术在科学技术领域与人们日常生活中得到有效应用。
为能够更好地满足大众的日常需求,进一步提高信息技术的分析与处理效率,必须注重人工智能与计算机网络技术的有效融合。
1 人工智能及其应用价值人工智能属于计算机学科中的一个关键分支,依托智能实质,生产能够以与人类智能相似的智能化机器,其重点研究对象为模拟、扩展、延伸人类智能的应用系统、技术等。
人工智能技术高度仿真地模拟人类的很多思维过程与智能化行为,为人们日常生活提供了极大的便利,因此深受社会各领域的关注。
基于新兴的技术条件,人工智能的研究对象涵盖了更多的内容,包括自然语言处理、图像识别、语言识别、机器人技术、专家系统等。
当前人工智能的覆盖范围进一步扩大,借助模拟人类思维与意识的信息过程,从而为人类的各项活动提供更好的服务[1]。
大数据技术的迅速发展,推动着人工智能和计算机网络技术的有效融合,可以较好地满足网络数据资源的使用需求,有助于提高网络系统的运行可靠性与安全性,提升信息数据系统推理能力等。
大数据、人工智能背景下公安执法规范化建设研究

大数据、人工智能背景下公安执法规范化建设研究摘要:目前,随着新技术的改革和引用,以大数据、云计算、物联网、人工智能为标志的智慧公安规范化建设正在如火如荼地展开。
智慧公安建设不仅给公安机关社会治理和城市社会管理带来重大而深远的影响,并由此催生了一场全新的警务革命,警务领域正经历着一场深层次变革。
对公安执法规范化工作也造成了很大的影响。
关键词:智慧公安执法规范化工作警务革命人工智能大数据等新技术在各行各业的应用,不仅会对政府管理、经济安全、社会稳定乃至社会治理等产生深刻影响,同时也会给公安机关维护社会稳定有序带来新的机遇与挑战,甚至成为在人工智能新时代推动警务领域改革创新的动力源泉和核心推力。
顺利完成人工智能新时代警务工作的变革坚守,已成为当前公安执法规范化改革的急需关注和研究的热点问题。
一大数据、人工智能背景下公安执法规范化建设内容公安执法规范化需要建设警务大数据[1]智能化,采用大数据、人工智能、云计算等技术,构建符合以融合、可持续发展为原则,实现技术统筹、能力统筹、数据统筹、服务统筹、支撑统筹警务大数据智能化平台,利用警务智能化平台的主要功能面向全警提供一个集强大计算存储能力海量数据融合资源、智能应用服于体的集约化智能平台,服务全局公安信息化工作。
(一)特色功能1.大数据安全体系基于云计算、大数据、新一代公安信息网、多网融合的“安全、可信、合规”的立体化纵深防御体系,根据大数据智能化平台安全基础,分阶段实现立体化纵深防御体系的建设,为公安大数据智能化建设和运行提供坚实保障。
面向全警提供集约化大数据智能化平台以融合、可持续发展为原则,实现技术统筹、能力统筹、数据统筹、服务统筹、支撑统筹,建设大数据智能化平台,面向全警提供一个集强大计算存储能力、海量数据融合资源、智能应用服务于-体的集约化智能平台,服务全局公安信息化工作。
2.云计算中台云计算中心能有效实现硬件资源统筹、计算资源共享、可持续升级更新,进-步提升全市公安业务的高效计算、智能计算水平。
变电站设备巡检系统中大数据与人工智能的应用研究

变电站设备巡检系统中大数据与人工智能的应用研究摘要:随着科技的发展,人们对于电力的需求日益增加,变电站作为电力系统中的重要组成部分,承担着向用户提供电能的责任。
在变电站中,各类设备处于运行状态,其运行状态直接影响着电网的稳定性。
为了保证变电站的安全稳定运行,必须加强对其进行日常巡检和维护。
基于此,本文将对大数据与人工智能技术在变电站设备巡检系统中的应用进行分析,以供参考与借鉴。
关键词:变电站;设备巡检;人工智能引言:随着科学技术的不断发展,大数据和人工智能技术已经应用到各行各业中。
在电力行业中,为了提高电网运行的可靠性,必须加强对变电站的巡检工作。
传统的巡检方式主要是利用人工进行巡检,这种方式存在效率低、漏检率高等问题。
因此,将大数据与人工智能技术充分的应用到变电站设备巡检中就显得尤为重要。
1、研究背景综述人力巡检仍是我国变电站设备巡检工作的主要工作模式,但是由于变电站设备巡检工作环境相对恶劣,巡检工作强度相对较高,从而使得设备巡检工作的实际效率始终处于相对较低的水平。
并且,技能水平不同的巡检人员在巡检过程中发现的问题也是各不相同,从而导致设备巡检结果的精准性以及客观性难以保障。
随之时代的发展与社会的进步,人们对于电力能源的需求也在不断的提高,变电站数量也在不断的增加,人工巡检工作已然无法再适应当前的高工作强度以及相对较为恶劣的自然环境。
同时巡检结果的误差性,也导致巡检工作事倍功半。
在环境较为恶劣的条件下,例如高原地区或是高寒地区,人工巡检工作的开展难度变得更大。
因此,为切实保证变电站设备运行安全,保证电网运行稳定,需要借助人工智能技术以及大数据技术来对当前的设备巡检工作加以创新[1]。
变电站设备巡检模式的改变会随之自主检测技术的发展而得到进一步的发展,当前相对较为常见的自主检测技术涵盖视频监控技术以及红外扫描技术等,可以对变电站设备的运维情况进行精准的反馈。
随之高新技术的应用,使得巡检人员的工作难度也会出现略微的提升,因此巡检人员需要具备技术操作能力。
促进互联网大数据人工智能与实体经济深度融合研究

本栏目责任编辑:唐一东人工智能及识别技术促进互联网大数据人工智能与实体经济深度融合研究曾晓娟(江苏安全技术职业学院,江苏徐州221011)摘要:新一轮科技革命与产业变革正在由大数据人工智能引领,人工智能等高新技术协助徐州打造智慧城市,方方面面都得到高效发展。
该文就徐州人工智能等高新技术与实体经济的深度融合的相关内容进行研究,查找出实体经济发展过程中的问题及并分析其改进措施。
关键词:人工智能;实体经济;深度融合;研究中图分类号:F424文献标识码:A文章编号:1009-3044(2020)35-0182-02开放科学(资源服务)标识码(OSID ):Research on Promoting the Deep Integration of Internet Big Data Artificial Intelligence and Real Economy ZENG Xiao-juan(Jiangsu College of Safety Technology,Xuzhou 221011,China)Abstract:A new round of scientific and technological revolution and industrial transformation is being led by big data artificial in⁃telligence.High and new technologies such as artificial intelligence help Xuzhou to build a smart city,and all aspects have been de⁃veloped efficiently.In this paper,Xuzhou artificial intelligence and other high-tech and deep integration of the real economy relat⁃ed content to find out the problems in the development of the real economy and analyze the improvement measures.Key words:artificial Intelligence;real economy;deep integration;research1引言新一轮科技革命与产业变革正在由大数据人工智能引领,对现在和未来的经济与发展将产生很大的影响。
深度学习的昨天_今天和明天_余凯

计算机研究与发展ISSN 1000-1239?CN 11-1777?TPJournal of Computer Research and Development 50(9):1799-1804,2013 收稿日期:2013-08-16;修回日期:2013-08-19深度学习的昨天、今天和明天余 凯 贾 磊 陈雨强 徐 伟(百度 北京 100085)(yukai@baidu.com)Deep Learning:Yesterday,Today,and TomorrowYu Kai,Jia Lei,Chen Yuqiang,and Xu Wei(Baidu,Beijing100085)Abstract Machine learning is an important area of artificial intelligence.Since 1980s,huge successhas been achieved in terms of algorithms,theory,and applications.From 2006,a new machinelearning paradigm,named deep learning,has been popular in the research community,and hasbecome a huge wave of technology trend for big data and artificial intelligence.Deep learningsimulates the hierarchical structure of human brain,processing data from lower level to higher level,and gradually composing more and more semantic concepts.In recent years,Google,Microsoft,IBM,and Baidu have invested a lot of resources into the R&D of deep learning,making significantprogresses on speech recognition,image understanding,natural language processing,and onlineadvertising.In terms of the contribution to real-world applications,deep learning is perhaps the mostsuccessful progress made by the machine learning community in the last 10years.In this article,wewill give a high-level overview about the past and current stage of deep learning,discuss the mainchallenges,and share our views on the future development of deep learning.Key words machine learning;deep learning;speech recognition;image recognition;natural languageprocessing;online advertising摘 要 机器学习是人工智能领域的一个重要学科.自从20世纪80年代以来,机器学习在算法、理论和应用等方面都获得巨大成功.2006年以来,机器学习领域中一个叫“深度学习”的课题开始受到学术界广泛关注,到今天已经成为互联网大数据和人工智能的一个热潮.深度学习通过建立类似于人脑的分层模型结构,对输入数据逐级提取从底层到高层的特征,从而能很好地建立从底层信号到高层语义的映射关系.近年来,谷歌、微软、IBM、百度等拥有大数据的高科技公司相继投入大量资源进行深度学习技术研发,在语音、图像、自然语言、在线广告等领域取得显著进展.从对实际应用的贡献来说,深度学习可能是机器学习领域最近这十年来最成功的研究方向.将对深度学习发展的过去和现在做一个全景式的介绍,并讨论深度学习所面临的挑战,以及将来的可能方向.关键词 机器学习;深度学习;语音识别;图像识别;自然语言处理;在线广告中图法分类号 TP18 2012年6月,《纽约时报》披露了谷歌的GoogleBrain项目[1],吸引了公众的广泛关注.这个项目是由著名的斯坦福大学的机器学习教授Ng和在大规模计算机系统方面的世界顶尖专家Dean共同主导,用16 000个CPU Core的并行计算平台训练一种称为“深度神经网络”(deep neural networks,DNN)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功.2012年11月,微软在中国天津的一次活动上公开演示了一个全自动的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完成语音识别、英中机器翻译和中文语音合成,效果非常流畅.据报道,后面支撑的关键技术也是DNN,或者深度学习(deep learning,DL)[2].2013年的1月,在中国最大的互联网搜索引擎公司百度的年会上,创始人兼CEO李彦宏高调宣布要成立百度研究院,其中第一个重点方向的就是深度学习,并为此而成立Institute of Deep Learning(IDL).这是百度成立10多年以来第一次成立研究院[3].2013年4月,《麻省理工学院技术评论》(MIT Technology Review)杂志将深度学习列为2013年十大突破性技术(breakthrough technology)之首[4].为什么深度学习受到学术届和工业界如此广泛的重视?深度学习技术研发面临什么样的科学和工程问题?深度学习带来的科技进步将怎样改变人们的生活?本文将简要回顾机器学习在过去20多年的发展,介绍深度学习的昨天、今天和明天.1 机器学习的两次浪潮:从浅层学习到深度学习 在解释深度学习之前,我们需要了解什么是机器学习.机器学习是人工智能的一个分支,而在很多时候,几乎成为人工智能的代名词.简单来说,机器学习就是通过算法,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测.从20世纪80年代末期以来,机器学习的发展大致经历了两次浪潮:浅层学习(shallow learning)和深度学习(deep learning).需要指出是,机器学习历史阶段的划分是一个仁者见仁,智者见智的事情,从不同的维度来看会得到不同的结论.这里我们是从机器学习模型的层次结构来看的.1.1 第一次浪潮:浅层学习20世纪80年代末期,用于人工神经网络的反向传播算法(也叫Back Propagation算法或者BP算法)的发明,给机器学习带来了希望,掀起了基于统计模型的机器学习热潮[5].这个热潮一直持续到今天.人们发现,利用BP算法可以让一个人工神经网络模型从大量训练样本中学习出统计规律,从而对未知事件做预测.这种基于统计的机器学习方法比起过去基于人工规则的系统,在很多方面显示出优越性.这个时候的人工神经网络,虽然也被称作多层感知机(multi-layer perceptron),由于多层网络训练的困难,实际使用的多数是只含有一层隐层节点的浅层模型.20世纪90年代,各种各样的浅层机器学习模型相继被提出,比如支撑向量机(support vectormachines,SVM),Boosting,最大熵方法(比如logistic regression,LR)等.这些模型的结构基本上可以看成带有一层隐层节点(如SVM,Boosting),或没有隐层节点(如LR).这些模型在无论是理论分析还是应用都获得了巨大的成功.相比较之下,由于理论分析的难度,而且训练方法需要很多经验和技巧,这个时期多层人工神经网络反而相对较为沉寂.2000年以来互联网的高速发展,对大数据的智能化分析和预测提出了巨大需求,浅层学习模型在互联网应用上获得了巨大的成功.最成功的应用包括搜索广告系统(比如谷歌的Adwords、百度的凤巢系统)的广告点击率CTR预估、网页搜索排序(比如雅虎和微软的搜索引擎)、垃圾邮件过滤系统、基于内容的推荐系统,等等.1.2 第二次浪潮:深度学习2006年,加拿大多伦多大学教授,机器学习领域的泰斗Hinton和他的学生Salakhutdinov在顶尖学术刊物《科学》上发表了一篇文章[6],开启了深度学习在学术界和工业界的浪潮.这篇文章有两个主要的讯息:1)很多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻划,从而有利于可视化或分类;2)深度神经网络在训练上的难度,可以通过"逐层初始化”(layer-wise pre-training)来有效克服,在这篇文章中,逐层初始化是通过无监督学习实现的.自2006年以来,深度学习在学术界持续升温.斯坦福大学、纽约大学、加拿大蒙特利尔大学等成为研究深度学习的重镇.2010年,美国国防部DARPA计划首次资助深度学习项目,参与方有斯坦福大学、纽约大学和NEC美国研究院.支持深度学习的一个重要依据,就是脑神经系统的确具有丰富的层次结构.一个最著名的例子就是Hubel-Wiesel模型,由于揭示了视觉神经的机理而曾获得诺贝尔医学与生理学奖.除了仿生学的角度,目前深度学习的理论研究还基本处于起步阶段,但在应用领域已经显现巨大能量.2011年以来,微软研究院和谷歌的语音0081计算机研究与发展 2013,50(9)识别研究人员先后采用DNN技术降低语音识别错误率20%~30%,是语音识别领域10多年来最大的突破性进展.2012年DNN技术在图像识别领域取得惊人的效果,在ImageNet评测上将错误率从26%降低到15%.在这一年,DNN还被应用于制药公司的Druge Activity预测问题,并获得世界最好成绩,这一重要成果被《纽约时报》报道.正如文章开头所描述的,今天谷歌、微软、百度等知名的拥有大数据的高科技公司争相投入资源,占领深度学习的技术制高点,正是因为他们都看到了大数据时代,更加复杂且更加强大的深度模型的能深刻揭示海量数据里所承载的负责而丰富的信息,并对未来或未知事件做更精准的预测.2 大数据与深度学习在工业界一直有一个很流行的观点:在大数据条件下,简单的机器学习模型会比复杂模型更加有效.比如说,在很多的大数据应用中,最简单的线性模型得到大量使用.而最近深度学习的惊人进展促使我们也许到了要重新思考这个观点的时候.简而言之,在大数据情况下,也许只有比较复杂的模型,或者说表达能力强的模型,才能够充分发掘海量数据中蕴藏的丰富信息.现在我们到了需要重新思考“大数据+简单模型”的时候.运用更强大的深度模型,也许我们能从大数据中发掘出更多的有价值的信息和知识.为了理解为什么大数据需要深度模型,先举一个例子.语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本.在谷歌的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当.这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本.只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型也是处于欠拟合的状态,更不必说传统的GMM声学模型了.所以在这个例子里我们看出,大数据需要深度学习.浅层模型有一个重要特点,就是假设靠人工经验来抽取样本的特征,而强调模型主要是负责分类或预测.在模型的运用不出差错的前提下(比如,假设互联网公司聘请的是机器学习的专家),特征的好坏就成为整个系统性能的瓶颈.因此,通常一个开发团队中更多的人力是投入到发掘更好的特征上去的.发现一个好的特征,要求开发人员对待解决的问题要有很深入的理解.而达到这个程度,往往需要反复的摸索,甚至是数年磨一剑.因此,人工设计样本特征,不是一个可扩展的途径.深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性.所以,“深度模型”是手段,“特征学习”是目的.区别于传统的浅层学习,深度学习的不同在于:1)强调了模型结构的深度,通常有5层、6层、甚至10多层的隐层节点;2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而分类或预测更加容易.与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻划数据的丰富内在信息.所以,在未来的几年里,我们将看到越来越多的例子,深度模型应用于大数据,而不是浅层的线性模型.3 深度学习的应用3.1 语音识别语音识别系统长期以来,描述每个建模单元的统计概率模型时候,大都是采用的混合高斯模型(GMM).这种模型由于估计简单,适合海量数据训练,同时有成熟的区分度训练技术支持,长期以来,一直在语音识别应用中占有垄断性地位.但是这种混合高斯模型本质上是一种浅层网络建模,不能够充分描述特征的状态空间分布.另外,GMM建模的特征维数一般是几十维,不能充分描述特征之间的相关性.最后GMM建模本质上是一种似然概率建模,虽然区分度训练能够模拟一些模式类之间的区分性,但是能力有限.微软研究院的语音识别专家Li和Dong从2009年开始和深度学习专家Hinton合作.2011年微软基于深度神经网络的语音识别研究取得成果,彻底底改变了语音识别原有的技术框架[7].采用深度神经网络后,可以充分描述特征之间的相关性,可以把连续多帧的语音特征并在一起,构成一个高维特征.最终的深度神经网络可以采用高维特征训练来模拟的.由于深度神经网络采用模拟人脑的多层结果,可以逐级地进行信息特征抽取,最终形成适合模式分类的较理想特征.这种多层结构和人脑处理语音图像信息的时候,是有很大的相似性的.深度神经网络的建模技术,在实际线上服务时,能够无缝地1081余 凯等:深度学习的昨天、今天和明天和传统的语音识别技术相结合,在不引起任何系统额外耗费情况下大幅度地提升了语音识别系统的识别率.其在线的使用方法具体如下:在实际解码过程中,声学模型仍然是采用传统的HMM模型,语音模型仍然是采用传统的统计语言模型,解码器仍然是采用传统的动态WFST解码器.但是在声学模型的输出分布计算时,完全用神经网络的输出后验概率除以一个先验概率来代替传统HMM模型中的GMM的输出似然概率.百度实践中发现,采用DNN进行声音建模的语音识别系统的相比于传统的GMM语音识别系统而言,相对误识别率能降低25%.最终在2012年11月的时候,上线了第一款基于DNN的语音搜索系统,成为最早采用DNN技术进行商业语音服务的公司之一.国际上谷歌也采用了深度神经网络进行声音建模,和百度一起是最早的突破深度神经网络工业化应用的企业之一.但是谷歌产品中采用的深度神经网络有4~5层[8],而百度采用的深度神经网络多达9层.这种结构差异的核心其实是百度更好的解决了深度神经网络在线计算的技术难题,从而百度线上产品可以采用更复杂的网络模型.这将对于未来拓展海量语料的DNN模型训练有更大的优势.3.2 图像识别图像是深度学习最早尝试的应用领域.早在1989年,LeCun(现纽约大学教授)和他的同事们就发表了卷积神经网络(convolution neural networks,CNN)的工作[9].CNN是一种带有卷积结构的深度神经网络,通常至少有2个非线性可训练的卷积层、2个非线性的固定卷积层(又叫pooling layer)和1个全连接层,一共至少5个隐含层.CNN的结构受到著名的Hubel-Wiesel生物视觉模型的启发,尤其是模拟视觉皮层V1和V2层中simple cell和complex cell的行为.在很长时间里,CNN虽然在小规模的问题上,比如说手写数字,取得当时世界最好结果,但一直没有取得巨大成功.这主要原因是CNN在大规模图像上效果不好,比如像素很多的自然图片内容理解,所以没有得到计算机视觉领域的足够重视.这个情况一直持续到2012年10月,Hinton和他的两个学生在著名的ImageNet问题上用更深的CNN取得世界最好结果,使得图像识别大踏步前进[10].在Hinton的模型里,输入就是图像的像素,没有用到任何的人工特征.这个惊人的结果为什么在之前没有发生?原因当然包括算法的提升,比如dropout等防止过拟合技术,但最重要的是GPU带来的计算能力提升和更多的训练数据.百度在2012年底将深度学习技术成功应用于自然图像OCR识别和人脸识别等问题,并推出相应的桌面和移动搜索产品,在2013年,深度学习模型被成功应用于一般图片的识别和理解.从百度的经验来看,深度学习应用于图像识别不但大大提升了准确性,而且避免了人工特征抽取的时间消耗,从而大大提高了在线计算效率.可以很有把握地说,从现在开始,深度学习将取代人工特征+机器学习的方法而逐渐成为主流图像识别方法.3.3 自然语言处理除了语音和图像,深度学习的另一个应用领域问题自然语言处理(NLP).经过几十年的发展,基于统计的模型已经成为NLP的主流,但是作为统计方法之一的人工神经网络在NLP领域几乎没有受到重视.本文作者之一徐伟曾最早应用神经网络于语言模型[11].加拿大蒙特利尔大学教授Bengio等于2003年提出用embedding的方法将词映射到一个矢量表示空间,然后用非线性神经网络来表示N-Gram模型[12].世界上最早的深度学习用于NLP的研究工作诞生于NEC Labs America[13],其研究员Collobert和Weston从2008年开始采用embedding和多层一维卷积的结构,用于POS tagging,Chunk-ing,Named Entity Recognition,Semantic RoleLabeling等4个典型NLP问题.值得注意的是,他们将同一个模型用于不同任务,都能取得与state-of-the-art相当的准确率.最近以来,斯坦福大学教授Manning等人在深度学习用于NLP的工作也值得关注[14].总的来说,深度学习在NLP上取得的进展没有在语音图像上那么令人影响深刻.一个很有意思的悖论是:相比于声音和图像,语言是唯一的非自然信号,是完全由人类大脑产生和处理的符号系统,但是模仿人脑结构的人工神经网络确似乎在处理自然语言上没有显现明显优势?我们相信深度学习在NLP方面有很大的探索空间.从2006年图像深度学习成为学术界热门课题到2012年10月Hinton在ImageNet上的重大突破,经历了6年时间.我们需要有足够耐心.3.4 搜索广告CTR预估搜索广告是搜索引擎的主要变现方式,而按点击付费(cost per click,CPC)又是其中被最广泛应用的计费模式.在CPC模式下,预估的CTR(pCTR)越准确,点击率就会越高,收益就越大.通常,搜索广2081计算机研究与发展 2013,50(9)告的pCTR是通过机器学习模型预估得到.提高pCTR的准确性,是提升搜索公司、广告主、搜索用户三方利益的最佳途径.传统上,谷歌、百度等搜索引擎公司以logisticregression(LR)作为预估模型.而从2012年开始,百度开始意识到模型的结构对广告CTR预估的重要性:使用扁平结构的LR严重限制了模型学习与抽象特征的能力.为了突破这样的限制,百度尝试将DNN作用于搜索广告,而这其中最大的挑战在于当前的计算能力还无法接受1011级别的原始广告特征作为输入.作为解决,在百度的DNN系统里,特征数从1011数量级被降到了103,从而能被DNN正常的学习.这套深度学习系统已于2013年5月开始服务于百度搜索广告系统,每天为数亿网民使用.DNN在搜索广告系统中的应用还远远没到成熟,其中DNN与迁移学习的结合将可能是一个令人振奋的方向.使用DNN,未来的搜索广告将可能借助网页搜索的结果优化特征的学习与提取;亦可能通过DNN将不同的产品线联系起来,使得不同的变现产品不管数据多少,都能互相优化.我们认为未来的DNN一定会在搜索广告中起到更重要的作用.4 深度学习研发面临的重大问题4.1 理论问题理论问题主要体现在两个方面,一个是统计学习方面的,另一个是计算方面的.我们已经知道,深度模型相比较于浅层模型有更好的对非线性函数的表示能力.具体来说,对于任意一个非线性函数,根据神经网络的universal approximation theory,我们一定能找到一个浅层网络和一个深度网络来足够好的表示.但是某些类函数,深度网络只需要少得多的参数就可以表示.但是,可表示性不代表可学习性.我们需要了解深度学习的样本复杂度,也就是我们需要多少训练样本才能学习到足够好的深度模型.在另一方面来说,我们需要多少的计算资源才能通过训练得到更好的模型,理想的计算优化方法是什么?由于深度模型都是非凸函数,这方面的理论研究极其困难.4.2 建模问题在推进深度学习的学习理论和计算理论的同时,我们是否可以提出新的分层模型,使其不但具有传统深度模型所具有的强大表示能力,而且具有其他的好处,比如更容易做理论分析.另外,针对具体应用问题,我们如何设计一个最适合的深度模型来解决问题?我们已经看到,无论在图像深度模型,还是语言深度模型,似乎都存在深度和卷积等共同的信息处理结构.甚至对于语音声学模型,研究人员也在探索卷积深度网络.那么一个更有意思的问题是,是否存在可能建立一个通用的深度模型或深度模型的建模语言,作为统一的框架来处理语音、图像和语言?另外,对于怎么用深度模型来表示象语义这样的结构化的信息还需要更多的研究.从人类进化的角度来看,语言的能力是远远滞后于视觉和听觉的能力而发展的.而除了人类以外,还有很多动物具有很好的识别物体和声音的能力.因此从这个角度来说,对于神经网络这样的结构而言,语言相较于视觉和听觉是更为困难的一个任务.而成功的解决这个难题对于实现人工智能是不可缺少的一步.4.3 工程问题需要指出的是,对于互联网公司而言,如何在工程上利用大规模的并行计算平台来实现海量数据训练,是各个公司从事深度学习技术研发首先要解决的问题.传统的大数据平台如Hadoop,由于数据处理的latency太高,显然不适合需要频繁迭代的深度学习.现有成熟的DNN训练技术大都是采用随机梯度法(SGD)方法训练的.这种方法本身不可能在多个计算机之间并行.即使是采用GPU进行传统的DNN模型进行训练,其训练时间也是非常漫长的.一般训练几千小时的声学模型所需要几个月的时间.而随着互联网服务的深入,海量数据训练越来越重要,DNN这种缓慢的训练速度必然不能满足互联网服务应用的需要.谷歌搭建的DistBelief,是一个采用普通服务器的深度学习并行计算平台,采用异步算法,由很多的计算单元独立的更新同一个参数服务器的模型参数,实现了随机梯度下降算法的并行化,加快了模型训练速度.与谷歌采用普通服务器不同,百度的多GPU并行计算的计算平台,克服了传统SGD训练的不能并行的技术难题,神经网络的训练已经可以在海量语料上并行展开.可以预期未来随着海量数据训练的DNN技术的发展,语音图像系统的识别率还会持续提升.目前最大的深度模型所包含的参数大约在100亿的数量级,还不及人脑的万分之一.而由于计算成本的限制,实际运用于产品中的深度模型更是远远低于这个水平.而深度模型的一个巨大优势在于,在有海量数据的情况下,很容易通过增大模型来达到3081余 凯等:深度学习的昨天、今天和明天更高的准确率.因此,发展适合深度模型的更高速的硬件也将是提高深度模型的识别率的重要方向.5 总 结深度学习带来了机器学习的一个新浪潮,受到从学术届到工业界的广泛重视,也导致了“大数据+深度模型”时代的来临.在应用方面,深度学习使得语音图像的智能识别和理解取得惊人进展,从而推动人工智能和人机交互大踏步前进.同时pCTR这样的复杂机器学习任务也得到显著提升.如果我们能在理论、建模和工程方面,突破深度学习技术面临一系列难题,我们将大大加速推进人工智能向前发展.参考文献[1]Markoff J.How many computers to identify a cat?[N]TheNew York Times,2012-06-25[2]Markoff J.Scientists see promise in deep-learning programs[N].The New York Times,2012-11-23[3]Li Yanhong.To believe in the power of technology[R].Beijing:Baidu,2013(in Chinese)(李彦宏.2012百度年会主题报告:相信技术的力量[R].北京:百度,2013)[4]10Breakthrough Technologies 2013[N].MIT TechnologyReview,2013-04-23[5]Rumelhart D,Hinton G,Williams R.Learningrepresentations by back-propagating errors[J].Nature,1986,323(6088):533-536[6]Hinton G,Salakhutdinov R.Reducing the dimensionality ofdata with neural networks[J].Science,2006,313(504).Doi:10.1126?science.1127647[7]Dahl G,Yu Dong,Deng Li,et al.Context-dependent pre-trained deep neural networks for large vocabulary speechrecognition[J].IEEE Trans on Audio,Speech,andLanguage Processing.2012,20(1):30-42[8]Jaitly N,Nguyen P,Nguyen A,et al.Application ofpretrained deep neural networks to large vocabulary speechrecognition[C]??Proc of Interspeech,Grenoble,France:International Speech Communication Association,2012[9]LeCun Y,Boser B,Denker J S,et al.Backpropagationapplied to handwritten zip code recognition[J].NeuralComputation,1989,1:541-551[10]Large Scale Visual Recognition Challenge 2012(ILSVRC2012)[OL].[2013-08-01].http:??www.image-net.org?challenges?LSVRC?2012?[11]Xu W,Rudnicky A.Can artificial neural network learnlanguage models[C]??Proc of Int Conf on StatisticalLanguage Processing.2000:1-13[12]Bengio Y,Ducharme R,Vincent P,et al.A neuralprobabilistic language model[J].Journal of MachineLearning Research,2003,3:1137-1155[13]Collobert R,Weston J,Bottou L,et al.Natural languageprocessing(Almost)from scratch[J].Journal of MachineLearning Research,2011,12:2493-2537[14]Socher R,Lin C,Ng A.Parsing natural scenes and naturallanguage with recursive neural Networks[C]??Proc of the28th Int Conf on Machine Learning.Garmany:InternationalMachine Learning Society,2011Yu Kai.Received his PhD from theUniversity of Munich in 2004.Professor.His main research interests includemachine learning,image processing,etc.Jia Lei.Received his PhD degree in speechrecognition from the Institute ofAutomation,Chinese Academy ofSciences,in 2003.His main researchinterests include speech recognition,machine learnning,digital signal processing and natuallanguage processing.Chen Yuqiang.Received his Master degreefrom Shanghai Jiaotong University.Engineer.His main research interestsinclude maching learning.Xu Wei.Received his Master degree fromCarnegie Mellon University in 2001.Hismain research interests include computervision,data mining,maching learningespecially deep learning.4081计算机研究与发展 2013,50(9)。
江苏省高等学校教育技术研究会2019年高校教育信息化研究

王利文 房强、丁红星 张淑娟、吴慧芳
张芳 赵阳 贺宗平 何悦菡 杨燕 刘鹏 杨帆、曲豫宾 贾雯 胡锐、钱震 张凯 陈毓、李锋涛 翟萍、陆慧 刘睿、韩国志 蒋卫、刘文波 周红霞 朱丹霞 任燕燕 高新柱、唐伟方 程文洁、廖传华 周艳、宋鲁林 刘加凤 闫志龙 芮忠、刘志文 吕恋生 孙莉 翟福贞、钟红丽 胡为民、范君 施教芳 张小红
中国矿业大学 中国药科大学 南京工业大学 南京工业大学 常州轻工职业技术学院 南京邮电大学通达学院 苏州科技大学 中国矿业大学 南京工业大学
南京工业职业技术学院、南京科技职业学院
江苏工程职业技术学院 苏州工艺美术职业技术学院
南通大学
立项结果
重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 重点课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 一般课题 委托课题
江苏省高等学校教育技术研究会2019年高校教育信息化研究课题立项名单
课题类别 通用课题
课题项目号
课题名称
2019JSETKT001 基于大数据的大学生网络信息素养研究 2019JSETKT002 大数据时代高校实习平台信息化建设与研究 2019JSETKT003 基于D&M模型的高校信息化学习空间建设研究 2019JSETKT004 新形势下高校信息化安全研究 2019JSETKT005 人工智能+背景下高校线上线下混合式教学模式探索 2019JSETKT006 产教融合模式下Java Web程序设计课程改革研究 2019JSETKT007 虚拟现实技术的高校教学应用研究 2019JSETKT008 智慧教学环境下电类基础实验课堂流程再造 2019JSETKT009 基于脑电技术的学习状态检测与提升研究 2019JSETKT010 “金课”背景下高职院校在线开放课程的建设与应用——以《微生物基础与检验技术》为例 2019JSETKT011 《信息技术教学法》在线开放课程建设及应用 2019JSETKT012 教育智能化在聋人高等艺术教育中的实践研究 2019JSETKT013 职业院校新教师教学设计理论知识现状研究 2019JSETKT014 基于机器学习的个性化学习平台研究 2019JSETKT015 教育信息化2.0视域下高校智慧教育云平台的研究与实践 2019JSETKT016 高职院校信息化安全探索与研究 2019JSETKT017 基于系统论视角下的高校网站安全管理研究 2019JSETKT018 “互联网+教育”背景下的高职助产专业实训体系构建研究与实践 2019JSETKT019 在线学习环境对学生学习的影响机制 2019JSETKT020 线上SPOC模式在仪器分析课程中的应用研究 2019JSETKT021 人工智能背景下高校教学变革研究 2019JSETKT022 新时代背景下信息技术与大学化学课程的融合研究 2019JSETKT023 面向新工科的大数据应用开发课程体系建设与改革 2019JSETKT024 MOOC背景下混合教学模式的实现路径与效果评价——以高职计算机通识课为应用案例 2019JSETKT025 “智能+”背景下职业院校教师培养研究 2019JSETKT026 信息化背景下高职院校园林技术专业群教学模式变革与创新研究 2019JSETKT027 3D虚拟仿真教学环境构建与资源建设研究——以商务英语综合实训项目为例 2019JSETKT028 教育信息技术与通识选修课程教学深度融合研究与实践 2019JSETKT029 基于移动互联网技术的课堂教学策略研究 2019JSETKT030 人工智能在教育中的应用 2019JSETKT031 SPOC混合教学模式在口腔护理学中的应用研究 2019JSETKT032 基于云班课的翻转课堂在高职《实验动物学》课程教学中的应用探索 2019JSETKT033 虚拟环境仿真在IPv6课程教学中的应用研究 2019JSETKT034 人文通识课程网络交互式教学模式研究 2019JSETKT035 信息技术与数据结构双语课程深度融合研究 2019JSETKT036 基于“互联网+”和虚拟仿真技术的传感器原理及应用课程教学资源库开发与应用研究 2019JSETKT037 信息技术与高校课程深度融合研究 2019JSETKT038 高职护理《健康评估》在线开放课程的构建研究 2019JSETKT039 基于SPOCSPOCSPOCSPOC模式的理论力学课程教学改革研究 2019JSETKT040 信息技术与汽车类专业课程的深度融合研究 2019JSETKT041 大学物理实验混合式智慧教学研究 2019JSETKT042 新一代信息技术下的慕课建设质量评价研究——以江苏农林职业技术学院为例 2019JSETKT043 新工科背景下现代信息技术与高职食品药品类专业课程整合的实践研究 2019JSETKT044 VR技术在园林景观设计中的应用研究 2019JSETKT045 地方本科院校基于“项目+技术”的翻译人才培养体系实证研究 2019JSETKT046 《机械制造工艺学》线上线下混合式金课建设 2019JSETKT047 传统工艺在中职院校中的在线课程设计与开发——以竹刻艺术技法为例 2019JSETKT048 《插花艺术》在线课程实操课件开发 2019JSETKT049 高职院校微课开发路径与应用的探索研究 2019JSETKT050 虚拟登山式体验学习——以化学基础课程为例 2019JSETKT051 支撑教学信息化的非结构化数据中心的设计与构建 2019JSETKT052 基于学习者视角的高职SPOC设计与开发研究 2019JSETKT053 基于超星系统的线上下混合式信息化教学改革与实践 2019JSETKT054 校园无线网络日志大数据可视化中心平台研究——以江苏海洋大学为例
人工智能赋能服务业高质量发展:理论逻辑、现实基础与实践路径

人工智能赋能服务业高质量发展:理论逻辑、现实基础与实践路径作者:王小艳来源:《湖湘论坛》2020年第05期摘要:人工智能是服务业高质量发展的关键要素和重要推动力。
当前,服务业已经成为我国经济发展的主动力,而人工智能技术的发展为服务业转型升级创造了客观条件,人工智能技术在服务业中的应用也积累了丰富经验,但在发展模式、基础设施、制度体系、推进机制、人才保障等方面依然存在不足。
进一步加强人工智能与服务业的深度融合,助力服务业高质量发展,需要探索新业态新模式、夯实基础支撑、厚植制度优势、创新推进机制、壮大人才队伍,为人工智能赋能服务业高质量发展添薪续力。
关键词:人工智能;服务业;深度融合;赋能;高质量发展中图分类号:F59 文献标志码:A 文章编号:1004-3160(2020)05-0136-09人工智能(Artificial Intelligence,AI)概念诞生于1956年的“达茅斯会议”。
经过近半个世纪的发展,人工智能已经迈入了新的发展时代,即新一代人工智能时代。
[1]人工智能在生产生活各领域的广泛应用,也标志着人类社会进入到以服务业为主导的后工业化时代。
中国高度重视人工智能对经济发展、社会进步、全球治理等产生的重大影响,将人工智能的发展提升到国家战略层面,并大力推进人工智能技术的发展应用。
习近平总书记指出:“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。
”他强调,“要推动互联网、大数据、人工智能和实体经济深度融合,加快制造业、农业、服务业数字化、网络化、智能化”。
[2]国务院印发的《新一代人工智能发展规划》明确了人工智能发展的战略目标和重点任务,提出了人工智能在教育、医疗、健康和养老等民生领域和物流、金融、商务、家居等服务业领域深度应用的具体措施。
[3]着力推进人工智能与服务业的深度融合,实现服务业高质量发展,让每个人都能共享人工智能带来的红利,是新时代赋予人工智能新的历史使命。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 中英文识别 • 公式识别
HEP
P
一家公司想要成为市场上的领导者
语言理解
传统的语言理解系统
Monkey likes eating banana
词法分析 句法分析 语义分析
Monkey/NNP loves/VBZ eating/VBG banana/NN
Monkey/NNPS的AI让生活更便捷-识图服装搜索
提供全新的视觉购物方 式。
接入优质数据: 美丽说、 蘑菇街、京东、亚马逊 等。
打造视觉搜索购物入口, 快速连接人与服务。
人工智能正循环
更强的 智能
更好的 产品
更多的 数据
AI还有多远?
Year 1955
2 month, 10 man “We propose that a
的度学习在:机器的感知能力正在超越人类
语音识别(中文)
10.0% 8%
错
6%
误 5.0%
率
0.0%
1.0%
错 误 率
0.8% 0.6% 0.4% 0.2%
0.0%
人脸识别(LFW)
0.8%
0.23%
开放人脸识别服务
客户端 人脸注册 人脸图片大脑服务端 人脸注册接口查询删除
注册信息查询 删除接口
人脸图片
人脸认证
人脸验证接口
人脸比对分数
人脸特征 数据库
开放图像文字识别(OCR)服务
banana
端到端的机器翻译
目标语言序列
猴子
爱
吃
香蕉
深度学习模型
猴子
爱
吃
源语言序列
Monkey
likes
eating
banana
统一的视觉和语言深度学习模型
猫咪在哪里?
语言理解 图像识别
语言生成
在椅子上。
看图说话和问答
一辆火车沿着森林边的铁轨驶 过。
问:冲浪板是什么颜色的? 答个休息椅,中间为路面,右边是灌木丛。”
“左手为百事可乐,“右一手为百可元口可人乐。民” 币。”
小明 DuLight 小明带你看世界 .IDL.HCI对拍摄图像的内容进行描述, 帮助盲人更好地理解真实世界。
“一个穿着黑“T恤前衫面的男是士坐你在椅的子邻上看居手机嘉,旁斌边。有一”颗绿植。”
study of artificial intelligence be
carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and
improve themselves. We think that a significant advance can be made in one
or more of these problems if a carefully selected group of scientists work on it together for a summer.”
(McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence)
人工智能还缺少:
▪ 小数据的学习能力 ▪ 自主地探索环境 ▪ 通过和人的交流学习
NP
loves/VBZ
VP
S
VP
eating/VBG
NP
banana/NN
Monkey likes eating banana
A0VA1来自A0VA1端到端的语义标注
A0
V
语义表示
A0
A1
V
A1
深度学习 模型
F1 Score 85.0% 80.0% 75.0%
文字序列 Monkey
likes
eating