翻译信息加工的神经网络模型研究——基于认知心理学联结主义范式的思考与构建

翻译信息加工的神经网络模型研究——基于认知心理学联结主义范式的思考与构建
翻译信息加工的神经网络模型研究——基于认知心理学联结主义范式的思考与构建

(1984: 261)”也”(汤成雄, 1994;另双语转换的过程就“交叉性”发, 1994; 鲍刚“主体”内“交叉性”研究成果

凤毛麟角,仅有的翻译认知研究也还存在深度不够、视野狭窄等问题(刘绍龙、夏忠燕,2008)。这恐怕还是由翻译心理研究的“边缘性”和“高难度”的特点所导致的,因此要改变翻译认知心理研究目前的这种状态,研究者就必须运用认知科学及心理学等相关理论来拓展研究视野、加大理论深度。

有鉴于此,本文通过对认知心理学及其框架下的联结主义范式的合理诠释、联结主义范式与符号加工范式的比较分析来探讨翻译的内在认知心理过程,以期构建基于认知心理学联结主义范式的翻译信息转换的神经网络模型。

翻译过程的认知心理学视角

基于翻译认知心理的“过程”研究是翻译心理学这门交叉学科的重要研究目标,也是翻译心理学有别于其他译学研究或译品研究的本质特征所在。翻译心理学这一交叉性学科的主要研究对象包括:(1)翻译与翻译过程,(2)翻译与人类感知,(3)翻译与人类记忆,(4)翻译与知识表征,(5)翻译与语言理解,(6)翻译与语言生成,(7)双语能力与双语转换等等。具体而言,

文献标识码:A 文章编号:1672-9382(2008) 05-0082-07

“边缘性”、“高难度”的跨学(1)传统的翻译心理研究更多地建立在计算机隐喻的心理模(2)翻译信2

至构成对经典的认知科学研究范式——符号加工范式(或物理符号系统假设)的一种严峻挑战。事实上,20世纪80年代中期以后已成为联结主义的发展、鼎盛时期。而认知心理学的第三种研究范式生态学研究尽管也出现在20世纪50年代,但是,却因较少获得偏爱而默默发展至今(叶浩生, 2003: 171-172),这也是本文没有将其纳入分析的重要原因之一。

在《并行分布加工:认知结构的微观探索》这部被视为联结主义事业的“圣经”中,作者提出多层神经网络模型的反向传播学习算法(back propagation algorithm),并证明多层神经网络的计算能力可以用来完成很多学习任务并解决其中的很多学习问题。在以后关于神经网络的研究中,科学家提出了可以用来处理不同信号能力的多种神经网络模型,这些模型又被应用到信息处理的各个领域,包括模式识别、自动控制、信号处理、辅助加工、人工智能等。从此,有关联结主义模型的研究成为世界各国关注的热点问题,并研制出多种联结主义网络软件包,其应用价值也获得广泛的开发。

联结主义被看作是探讨心智和智能的一种新的科学方法,“并行分布处理”构成该研究范式的核心概念或核心思想,即认知或智能是从大量单一处理单元的相互作用中产生的。联结主义致力于研究认知的“微观结构”,且其目的“不再是用符号和符号操作来模拟认知过程——像‘物理符号系统假设’那样,而是模拟发生在神经系统中的过程。……从方法学角度看,联结主义方法与其说是对单一神经元的功能感兴趣,不如说是对被称为‘单元’(units)的简单处理器的整体行为感兴趣。”(熊哲宏, 2002: 185-186)联结主义模式是指通过简单加工单元之间的联结方式进行计算或加工信息的一类模式。这种模式是对真实生物神经网络的模拟,它试图以此构建一个更接近神经活动的认知模型,或称人工神经网络。该网络的基本成分是单元和联结,单元是带有活性值(activation value)的简单加工器,而联结成为单元之间发生交互作用的媒介,且单元与单元之间的联结构成网络。因此,联结主义网络模式包含很多神经节,但这些神经节中并不存在任何信

(刘绍龙,

型是由三层神经

, 2003:

”,它位于网络的的轴突纤维延伸到第二层单元群。第二层是隐含层,轴突纤维到达第二层隐含层(即单元群)后,其纤维末端分裂成扇形状分支,并与隐含层的每个单元相联结,从而形成突触联结。这一联结可以保证输入层与隐含层能保持单元间的联系,并使隐含层的每个单元处于兴奋或抑制状态。隐含层把每个单元接收到的兴奋或抑制的有效小事件加以汇总并予以判断,于是产生另一种不同类型的穿越隐含层单元的激活,其所呈现的类型则由输入层到隐含层的联结权重来决定。第三层是输出层,它是神经网络的最上层。隐含层轴突纤维到达输出层单元后便形成另一套突触联系,在这里,输出层将把其所接收到的有效小事件加以汇总并做出相应的判断。其结果是原来通过隐含层的激活被转变成另一种类型的穿越输出层单元的激活。隐含层的功能是对接受信号进行粗加工,而输出层所承担的功能是对接受信号进行精加工。

作为当代认知心理学重要研究范式的联结主义神经网络模型与建立在电脑隐喻基础之上的符号操作系统模型(或符号加工模型)有着明显的不同,前者的主要特征可以概括为以下五个方面:

(1) 平行结构及加工机制。与按序列处理或操作的符号加工模型明显不同的是,联结主义神经网络不仅在结构上是平行的,而且运算和很多认知过程的加工都是平行进行、同时操作的,也就是人们常说的“平行分布加工”(parallel distributed processing,简称PDP)。由于网络同一层次加工单元的同时运行和操作,联结主义的神经网络才有可能以极快的速度接收和感知来自外部环境的事物或刺激并做出快速的判断反应。

(2) 分布式表征和加工。知识信息并非贮存于神经网络的任何特定的单元之中,这是因为任何一个特定认知活动的基础神经活动都分布在一个相对广泛的大脑皮层区域,或是以交互作用的激活模式扩散在整个神经网络中。这意味着,整个网络采用分布表征的方式来处理知识信息,并可节约大量的单元且享有极快的加工速度。

(3) 连续性和亚符号表征。联结主义神经网络强调模拟运算和操作的连续性和信息表征的亚符号性,这是它与以离散的物理符号来表征较高级概念的符号加工理论的明显不同。其中,连续性模拟运算是联结主义网络模型处理知识信息的本质特征。此外,与经典符号加工模型采用物理符号假设不同,联结主义范式采用的是“亚符号范式”,这意味着它所表征的是直觉经验或“亚概念”,即尚未上升为用语言表

达的概念,这说明两种范式所采用的符号表征的层次不尽相同。

(4) 巨大的容错性。联结主义神经网络具有巨大的容错性特征,这与人的脑神经系统具有很强的容错性是一致的。在联结主义神经网络中,每个神经单元的损伤或缺失都不会影响神经网络的整体功能和输出模式,也就是说,不会对正常的神经认知活动(如模式识别、记忆、推理判断等)造成实质性的影响。换言之,即使当认知加工出现错误信息时,加工者仍有望完成多数神经信息的认知加工任务。

(5) 自学习、自适应、自组织功能。自学习、自适应、自组织功能是联结主义神经网络的另一个特征。上述功能使神经网络具备了遇错时能够自我调整神经单元之间的权重并采取相应的训练策略和遵循一定的学习规则,以便重新进行神经信息的认知加工,直至产生一个预期的输出结果。神经网络自学习、自适应、自组织功能与神经网络容错性的生物特征密切相连,这一生物特征为神经网络容错功能的实施提供了认知保证。

联结主义范式与符号加工范式:“碰

撞”与“融合”

以“心理活动像大脑”为隐喻基础的联结主义神经网络模型对大脑功能的模拟似乎更接近人类生物脑的现实。20世纪80年代以后,以神经网络为基础的联结主义强调认知研究的神经基础和数学基础,从而认为人的认知处理单位不是符号而是神经元。这些神经元都处于不同的激活状态并按一定的联结形式和不同的权重联结起来,这使得语言信息的处理是并行运作,而非线性操作。与此相反的是,基于符号加工的认知研究则倾向把信息加工描述为一种抽象的分析且认为信息处理是按序列进行的,也就是人们常说的系列加工(serial processing),并且坚持对信息加工系统实施“分解”分析和讨论。由于联结主义模型将其思想理念建立在“神经激活”之上,语言信息的加工也就同样应在“神经网”中平行进行。

尽管对联结主义理论持肯定态度的人不少,但也有一些学者对其持批评态度。例如,有学者声称联结主义是“披着计算机外衣的行为主义”,是“披着高科技外衣回到了联想主义”。

(A.卡米洛夫-史密斯, 2001: 161)也有学者指出,“尽管联结主义模型发人深省,但目前还不能取代符号系统的模型。”(桂诗春, 2000: 7; 以下同)持批评态度的学者的观点主要来源于国外学者Simon和Kaplan(1989)

活动。”

性”和“序列性”问题。

主要思维形式。……

……”(叶浩生, 2003: 379)

工的“融合”

可或缺的。(转引自刘绍龙者预言,“

融合。……

由之路。……

2003:380-381)

思考与构建

学方法而“并行分布处理”

4

5

核心概念或核心思想。尽管我们曾经指出联结主义网络模型“目前还不能取代符号系统的模型”,但是,联结主义的神经网络模型也有其独特的优势。例如,这种网络模式被认为是“对真实生物神经网络的模拟……”,是一个“更接近神经活动的认知模型”。而且,其“并行分布处理”的核心理念可以部分用来解释基于电脑隐喻和“分解”分析的符号序列加工模型难以解释的认知过程和认知行为,如同声传译中的源语理解和译语产生同步、重叠进行的过程和现象。尽管我们指出符号加工范式也蕴含了“非线性”、“非序列”的信息处理特征,但是,它的“阶段性”、“序列性”主流特征又成为我们描述或标示认知加工过程的难以避免的常见事实和习惯策略。或许正是因为两种加工范式的差异性与互补性或“碰撞”与“融合”的同时存在,才出现了介于符号加工范式和联结主义范式之间的“融合”折衷模式。我们不敢预言致力于研究认知的微观结构的联结主义范式和致力于分解认知抽象结构的符号加工范式能圆满地走到一起,至少在现阶段还难以确定这一假设的发展趋势。因此,较为现实的做法仍是立足于传统的“二分法”,并对基于联结主义范式的双语加工网络模型的构建进行充分的思考。

联结主义网络模型及其五大功能特征说明,人脑具有巨大的并行处理的能力,这是它与符号加工系统模型的序列加工或分时处理能力的明显不同之处。神经网络的并行处理能力说明人的大脑在加工处理信息时以空间复杂性代替了时间复杂性,这使它能在不到一秒钟的时间里对外界事物做出迅速判断和决策。所谓空间复杂性是指人的大脑的大规模快速并行处理,或称巨并行处理。这是仅仅依靠时间复杂性并基于符号表征和计算的符号操作系统难以比拟的。此外,联结主义神经网络的容错性和自学习、自适应、自组织、自联想等功能特征也是符号加工系统望尘莫及的。

联结主义神经网络模型的三层神经单元群(输入层、隐含层和输出层)、分布式表征、巨并行加工和重构性记忆类型以及该网络模型所提出的多层次、多模块假说对翻译心理研究有着极其重要的启示作用。“多模块”是指不同模块(如语音模块、词汇模块等)具备各自独特的应用功能,而且模块与模块之间可以通过神经元的链接而紧密联结并产生交互作用,从而达到完成或实现神经网络的整体功能。所有这些为翻译信息转换的联结主义研究和翻译神经网络模型的构建提供了全新的研究视角和方法论指导。尽管目前人们对联结主义神经网络及其研究范式所知甚少,而且相关研究尚处在探索阶段,但是,我们仍将尝试构建基于联结主义范式的翻译神经网络模型(见图2)。该模型的基础框架来自联结主义范式的三层前馈式神经网络模型(刘绍龙, 2007b: 图1.6)。但较之三层前馈式网络模型,翻译信息转换的神经网络模型所蕴含的内容、功能以及各种线条链接所表示的意义已发生了不同程度的变化,这也是该模型与三层前馈式网络模型在内容、功能和形式上有所不同的地方。

事实上,基于联结主义神经网络范式(尤其是三层前馈式神经网络模型)的翻译信息转换的神经网络模型(图2)是一个多层次、多模块的联结主义网络模型。其层次性表现为该模型所具有的三层神经单元层,即:源语输入接收层、源语符号转换层、译语构建/输出层,而其模块性却是隐含的(见下面的第一点叙述)。此外,各层次之间由四种不同的线条连接起来,这些形状各异的链接分别表示不同的含义(如权重不一)。作为一个多层次、多模块的神经信息网络(尽管其模块未在模型图中明示),该翻译信息转换的神经网络(以下简称“翻译神经网络”)具有以下几个方面的特点(刘绍龙, 2007b),现逐一加以介绍。

译语合成 译语合成

转换转换转换

源语分析源语分析源语分析图) )

(1) 基于联结主义神经网络的翻译神经网络是一个三层次网络,其网络模型由底层、中

层和上层三个层次构成,它们分别是“源语输入/接收层”、“源语符号转换层”和“译语构建/输出层”。各单元层之间由权重不同且颇具网络/联结特点的线条连接,例如:始于图右下方“源语分析”并连接其上方的“转换”和图左上角“译语合成”的大粗实线,始于图中部“源语分析”并连接“转换”和图右上角“译语合成”的中粗实线,以及图左边及右上角的虚线链接和其他的实线链接。除了网络模型图所明示的层级性,该翻译神经网络模型的连接线条里还分布了若干知识模块。起简单加工器作用并具活性值(activation value)的“层单元”通过神经联结中介与知识模块发生作用,并使其获得激活和使用。概而言之,我们可以用八个字简单地归纳该网络模型的上述特点,即:立体层次、隐含模块。

(2) 动态单元、静态模块是翻译信息转换神经网络的又一个显著的特点。在翻译神经网络中承担信息加工器作用的层单元虽然在模型图中似乎处在网络的特定位置,但它们都具有动态的、可延伸活动空间。由此可见,神经网络的空间复杂性代替了符号加工系统模型的时间复杂性,从而使整个神经网络具备了快速、准确的动态加工能力。我们可以把翻译神经网络中的层单元比喻为“来料加工场”。除了网络模型图中明示的动态层单元以外,网络中所具有的隐含模块还储存了处于相对静止状态的知识信息,它们为处于单元层的信息“加工场”提供所需的“原材料”,即神经网络加工所需要的知识、信息等。由于各单元层所加工的内容和所运用的操作方式不大一致(详见下述),因此,可能被激活的静态模块和可能被调用的模块知识信息等也会不尽相同。

(3) 由三个单元层架起的翻译神经网络模型体现了翻译过程源于输入、途经转换、终于输出的神经信息的加工流程。在整个加工流程中,各层分工明确、层际交互影响成为该网络模型的第三个突出特点。位于底层的源语输入/接收层专司听/视觉输入信息的接收与感知,这一过程表现为译者对口笔译中的初始源语符号串的接收与识辨;处于中间的(源语符号)转换层专司基于源语感知/理解后的符号至概念的转换粗加工;最上层的译语构建输出层则完成概念至译语符号的转换编码精加工,直至译入语的形成和输出。事实上,尽管网络内的单元层有各自不同的分工,但它是相对的。也就是说,网络内的神经信息加工并不是一味地向前推进。这意味着单元层与单元层之间因联结权重的不同而存在不同程度的交互作用和交互影

(4)

线链接的同一,这种“

和三种宽度不一的实线)

互统一的标准。

(5)

记忆信息。(刘爱伦

续工作,并保证其认知活动

结语

翻译是一项特殊的双语交际,其中涉及源语理解和译语生成的复杂认知心理过程。传统、经典的符号加工范式旨在把这一复杂的心理过程描述为一种抽象的序列加工范式,并将其操作过程比喻为以序列加工为特色的计算机信息处理系统。这一基于计算机隐喻的心理模型或研究范式确实为我们理解和想象人脑黑箱的语言信息处理过程提供了可读性、可学性较强的理论框架。然而,人的大脑所具有的复杂、高速、准确的信息加工能力并非像计算机那样机械、被动的运行机器所能简单比拟和描述。于是,以“分解分析”、“序列加工”为突出特征的符号加工系统终究受到以“分布表征”、“并行加工”为主要特色的联结主义神经网络模型的挑战。联结主义网络模型中记忆/信息的分布表征和神经网的并行加工能力为人类的语言使用提供了必需的神经生理保证,并为我们深入了解翻译信息转换的复杂心理过程和构建翻译信息转换的神经网络模型提供了全新的研究视角和研究方法。本文所构建的翻译神经网络模型便是基于联结主义研究范式的一个大胆尝试。

诚如我们前面所说,认知心理学之联结主义视角下的翻译神经网络模型研究涉及翻译心理研究中较为“边缘”、较为“高深”的跨学科领域,即涉及认知科学的诸多相关学科如心理学、脑神经学、语言学、计算机科学等。有关这方面的系统研究在国内似乎刚刚起步,研究成果更是凤毛麟角。但随着认知科学(尤其是脑科学、认知心理学等学科)的发展和相关研究成果的不断积累,我们有望获得最新科学技术、研究方法和研究成果的支持,从而使我们尝试构拟的翻译神经网络系统模型更具心理现实性,或者说使该网络系统模型对大脑功能的模拟更接近人类生物脑的现实。

注释

①本研究得到2008年国家社科基金项目资助(批

准号08BYY071)。

参考文献

[1] Danks, J. et al. Cognitive Processes in

[C]. Thousand

Meta, 2005: 359-377.

[M]. Tubingen:

Parallel Distributed Processing: Explorations

in the Microstructure of Cognition. [C].

Cambridge, MA: MIT Press, 1986

[5] A.卡米洛夫-史密斯. 超越模块性——认知科学

的发展观 [M]. 上海: 华东师范大学出版社, 2001.

[6] 鲍刚.口译程序中的“思维理解” [J]. 北京第二

外国语学院学报, 1999(1): 1-12.

[7] 桂诗春.新编心理语言学 [M]. 上海: 上海外语

教育出版社,2000.

[8] 林语堂.论翻译 [A]. 翻译研究论文集(1894-1984)

[C]. 中国翻译工作者协会,《翻译通讯》编辑

部编. 北京: 外语教学与研究出版社, 1984. [9] 刘绍龙.论双语翻译的认知心理研究——对

“翻译过程模式”的反思和修正 [J]. 中国翻译,

2007a(1): 11-16.

[10] 刘绍龙.翻译心理学[M].武汉: 武汉大学出版

社, 2007b.

[11] 刘绍龙, 夏忠燕.中国翻译认知研究: 问题、反

思与展望 [J]. 外语研究, 2008(4).

[12] 刘爱伦.思维心理学 [M]. 上海: 上海教育出版

社, 2002.

[13] 刘宓庆. 新编当代翻译理论 [M]. 北京: 中国对

外翻译出版公司, 2005.

[14] 汤成雄. 翻译三题[A].中国当代翻译百论 [C].

杜承南, 文军编.重庆: 重庆大学出版社, 1994.

[15] 熊哲宏.认知科学导论 [M]. 武汉: 华中师范大

学出版社, 2002.

[16] 杨自俭, 刘学云. 翻译新论 [M]. 武汉: 湖北教

育出版社, 1994.

[17] 杨武能. 文学翻译批评管窥 [J]. 译林, 1994(3): 216.

[18] 叶浩生. 西方心理学研究新进展 [M]. 北京: 人

民教育出版社, 2003.

Constructing a Neural-net Processing Model in Translation Process: An Application of Connectionist Approach Abstract: Translation is considered to be both linguistic and cognitive activities, and the connectionist-based studies on the neural-net processing model for translation are often assumed to be rather “peripheral” and exclusively “difficult” under the condition that the traditional computer-based information processing approach remains profoundly pervasive and that much interdisciplinary knowledge is expected of the researcher. In spite of all this, the author of this paper spares no effort to research into the building of a neural-net processing model for translation within the framework of connectionist approach in cognitive psychology.

Key Words: information processing in translation;

a connectionist approach; a neural-net model

6

认知心理学及其启示

认知的科学 今天,我们都知道脑是人心理活动的器官,但是我们并不是一开始就了解它们之间的联系。例如,古希腊哲学家亚里士多德认为心理活动由心脏产生的,而脑的功能是用来冷却血液的。 认知心理学是一门探讨心理活动是怎么被组织起来产生智能思维,心理活动又是如何在脑中产生的科学。在这一章,我们通过讨论下面的问题来介绍认知心理学最基本的概念。 为什么要研究认知心理学? 认知心理学起源于什么时候什么地方? 大脑中的细胞是如何加工信息的? 脑由哪些部分来负责他的各种不同功能? 哪些新的研究方法扩展了认知心理学的研究领域? 1.为什么要研究认知心理学? 1.1求知欲 人的心理是一种极具魅力的装置,展现出令人惊奇的智慧和适应能力我们想要了解这种复杂精妙的智力到底是怎么工作的?人工智能领域的研究者们试图开发男士计算机展现智能行为的程序,取得了不少令人瞩目的成就,但是他们到现在为止还是没有开发出一个能够比得上人的心理的程序,有一个程序具有人类那样回忆、解决问题、推理、学习、加工语言的能力。 但是,人的智能并没有什么神秘的东西使得我们没有办法用计算机来建立模型。曾经因为在经济学理论方面的建树而通过了1978年的诺贝尔奖的赫伯特西蒙,在生命中的最后40年研究认知心理学,他集中研究了从事科学时涉及的智力过程,他发现,科学探索的方法,可以用基本的认知过程来阐明,因为这些活动中很多只是问题解决过程。因此可以得出结论,人类的智慧涉及的是基本的认知过程,它们以复杂的方式一起运行产生出灿烂的成果。 1.2 对其他领域的启示 认知心理学是所有其他社会科学的基础。支配人类思维的基本机制,对于理解其他社会科学研究的行为类型非常重要。例如,要理解为什么会发生某种思维障碍(临床心理学)、人在对待别人时会有怎样的行为(社会心理学)、劝说是如何起作用的(政治学)、如何作出经济决策(经济学)、为什么某些组织群体的方法要比其他方法更为有效和稳定(社会学)、为什么自然语言具有一定的特征(语言学)。 虽然是这样,很多社会科学在没有认知心理学做基础的情况下已经发展起来了。你是因为认知心理学领域还待发展,二是因为研究者们已经找到了其他途径来解释他们感兴趣的现象。 1.3 实际应用 认知心理学的实践意义是认知心理学研究的另一个关键动机。如果我们能搞清楚人们是怎如何获得知识和技能,如何执行智能行为,那么我们就能够相应的改进他们的智能训练和绩效。已经出现了一些直接应用于日常生活的成果,例如:关于目击者证词的可靠性研究、关于网络浏览的研究。关于课堂练习的研究以及精神分裂症和自闭症脑功能异常的理解。 启示:认知心理学告诉我们怎样才能有效的学习 学习的关键在于抓住书中每一节的主要观点,并理解这些观点是如何组织在一起的。可以用PQ4R法(预习、提问、阅读、反思、复述、复习)帮助自己记住这些内容。 2.认知心理学的历史

人工神经网络原理及实际应用

人工神经网络原理及实际应用 摘要:本文就主要讲述一下神经网络的基本原理,特别是BP神经网络原理,以及它在实际工程中的应用。 关键词:神经网络、BP算法、鲁棒自适应控制、Smith-PID 本世纪初,科学家们就一直探究大脑构筑函数和思维运行机理。特别是近二十年来。对大脑有关的感觉器官的仿生做了不少工作,人脑含有数亿个神经元,并以特殊的复杂形式组成在一起,它能够在“计算"某些问题(如难以用数学描述或非确定性问题等)时,比目前最快的计算机还要快许多倍。大脑的信号传导速度要比电子元件的信号传导要慢百万倍,然而,大脑的信息处理速度比电子元件的处理速度快许多倍,因此科学家推测大脑的信息处理方式和思维方式是非常复杂的,是一个复杂并行信息处理系统。1943年Macullocu和Pitts融合了生物物理学和数学提出了第一个神经元模型。从这以后,人工神经网络经历了发展,停滞,再发展的过程,时至今日发展正走向成熟,在广泛领域得到了令人鼓舞的应用成果。本文就主要讲述一下神经网络的原理,特别是BP神经网络原理,以及它在实际中的应用。 1.神经网络的基本原理 因为人工神经网络是模拟人和动物的神经网络的某种结构和功能的模拟,所以要了解神经网络的工作原理,所以我们首先要了解生物神经元。其结构如下图所示: 从上图可看出生物神经元它包括,细胞体:由细胞核、细胞质与细胞膜组成;

轴突:是从细胞体向外伸出的细长部分,也就是神经纤维。轴突是神经细胞的输出端,通过它向外传出神经冲动;树突:是细胞体向外伸出的许多较短的树枝状分支。它们是细胞的输入端,接受来自其它神经元的冲动;突触:神经元之间相互连接的地方,既是神经末梢与树突相接触的交界面。 对于从同一树突先后传入的神经冲动,以及同一时间从不同树突输入的神经冲动,神经细胞均可加以综合处理,处理的结果可使细胞膜电位升高;当膜电位升高到一阀值(约40mV),细胞进入兴奋状态,产生神经冲动,并由轴突输出神经冲动;当输入的冲动减小,综合处理的结果使膜电位下降,当下降到阀值时。细胞进入抑制状态,此时无神经冲动输出。“兴奋”和“抑制”,神经细胞必呈其一。 突触界面具有脉冲/电位信号转换功能,即类似于D/A转换功能。沿轴突和树突传递的是等幅、恒宽、编码的离散电脉冲信号。细胞中膜电位是连续的模拟量。 神经冲动信号的传导速度在1~150m/s之间,随纤维的粗细,髓鞘的有无而不同。 神经细胞的重要特点是具有学习功能并有遗忘和疲劳效应。总之,随着对生物神经元的深入研究,揭示出神经元不是简单的双稳逻辑元件而是微型生物信息处理机制和控制机。 而神经网络的基本原理也就是对生物神经元进行尽可能的模拟,当然,以目前的理论水平,制造水平,和应用水平,还与人脑神经网络的有着很大的差别,它只是对人脑神经网络有选择的,单一的,简化的构造和性能模拟,从而形成了不同功能的,多种类型的,不同层次的神经网络模型。 2.BP神经网络 目前,再这一基本原理上已发展了几十种神经网络,例如Hopficld模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart 等的多层感知机模型和Kohonen的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。 这里我们重点的讲述一下BP神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络设想,其网络模型如下图所示。它可以分为输入层,影层(也叫中间层),和输出层,其中中间层可以是一层,也可以多层,看实际情况而定。

基于BP神经网络的车型识别外文翻译

、外文资料 License Plate Recognition Based On Prior Knowledge Abstract - In this paper, a new algorithm based on improved BP (back propagation) neural network for Chinese vehicle license plate recognition (LPR) is described. The proposed approach provides a solution for the vehicle license plates (VLP) which were degraded severely. What it remarkably differs from the traditional methods is the application of prior knowledge of license plate to the procedure of location, segmentation and recognition. Color collocation is used to locate the license plate in the image. Dimensions of each character are constant, which is used to segment the character of VLPs. The Layout of the Chinese VLP is an important feature, which is used to construct a classifier for recognizing. The experimental results show that the improved algorithm is effective under the condition that the license plates were degraded severely. Index Terms - License plate recognition, prior knowledge, vehicle license plates, neural network. I. INTRODUCTION Vehicle License-Plate (VLP) recognition is a very interesting but difficult problem. It is important in a number of applications such as weight-and-speed-limit, red traffic infringement, road surveys and park security [1]. VLP recognition system consists of the plate location, the characters segmentation, and the characters recognition. These tasks become more sophisticated when dealing with plate images taken in various inclined angles or under various lighting, weather condition and cleanliness of the plate. Because this problem is usually used in real-time systems, it requires not only accuracy but also fast processing. Most existing VLP recognition methods [2], [3], [4], [5] reduce the complexity and increase the recognition rate by using some specific features of local VLPs and establishing some constrains on the position, distance from the camera to vehicles, and the inclined angles. In addition, neural network was used to increase the recognition rate [6], [7] but the traditional recognition methods seldom consider the prior knowledge of the local VLPs. In this paper, we proposed a new improved learning method of BP algorithm based on specific features of Chinese VLPs. The proposed algorithm overcomes the low speed convergence of BP neural network [8] and remarkable increases the recognition rate especially under the condition that the license plate images were degrade severely.

读写结合

“读写结合”理论学习 “读写结合”有其深厚的理论依据,其理论依据并非唯一,但最基本的原理是迁移理论。迁移理论为读写结合提供了理论支撑,迁移理论背景下的样例学习为读写结合提供了实践路径。 在早期的迁移理论中,桑代克将学习机制看作是通过强化和反馈形成的S-R的联结,迁移被认为是一种特殊的联结,根据这一观点,迁移能力的获得只能通过大量的训练和联系,使这些联结的强度得到加强。这种迁移观是一种机械的迁移观。目前,语文教学中盛行“多读多写”观念大多沿用的是这一理论。不理解由读促写、由写促读的内在机理,仅凭多读多写来提高学生的读写水平无疑会加重学生的学业负担,虽或有效,但事倍功半。 由于早期的迁移理论缺乏科学的知识分类观,试图在动作技能及简单的联想学习研究的基础上寻找人类学习的一般规律,势必造成了为了实现迁移而反复地机械练习。随着认知心理学研究的不断深入,知识分类的思想已被认同和接受,进而在知识分类视域下探讨迁移的内在机制及其规律,出现了新的学习迁移观。 根据现代认知心理学,陈述性知识在人的大脑中是以命题网络的形式表征并贮存的,其层次结构的优劣直接影响新知识的获得。所谓认知结构迁移理论,也称之为迁移的图式理论,其实是“概括化理论”的推衍,它是在美国教育心理学家奥苏贝尔的有意义言语学习理论的基础上发展起来的。奥苏贝尔指出,为了进行有意义的学习,学习者良好的知识结构必须满足以下三个特点:(1)具有用来同化新知识的适当的原有知识框架;(2)已有的知识是按一定的结构、层次组织的;(3)已有的知识是清晰的、巩固的和稳定的。在这一理论中,奥苏贝尔将学习者已有的知识结构表示为图式,并从概念同化的角度提出了在教学中促进迁移的措施。季克和霍约克从图式归纳的角度解释了迁移的机制:两个不同领域的问题中可以存在同一个问题图式(称为“辐合图式”),它们的表面特征不同,但结构特征相同。在这种情况下,在两个问题的初始状态之间建立起部分的映射关系,并由此获得一个类比的解题策略,从而使问题得到解决,这就是一种典型的类比迁移。 这一理论启示我们:读写结合的可能性在于,读文与写文具有相同的结构特征。由“读”可以获得一类文章的认知结构,在学生大脑中形成一套文章的结构图式,这种结构图式可以与写作形成映射关系,成为写作时的“先行组织者”。 1989年,西格勒和安德森出版了《认知技能迁移》一书,系统地阐述了迁移的“共同要素理论”。共同要素理论是建立在安德森的“自适应控制理论”(Adaptive Control Theory,简称为ACT理论)基础之上的。根据ACT理论,知识可以分为陈述性知识和过程性知识两大类:陈述性知识是关于“是什么”的知识,包括事实、概念、原理等;过程性知识是关于“如何做”的过程或操作程序的知识,可以表示为“条件―动作”形式的产生式规则。这一理论认为,熟练的技能是陈述性知识被“编辑”为过程性知识的结果。在这一理论中,“知识使用的特定性原则”是其核心观点。根据这一观点,两种技能之间发生迁移的条件,是它们之间必须共用相同的过程性知识,并且,两种技能之间的迁移量,可以通过计算它们共用的过程性知识的数量作出估计:(1)如果两种技能共用的过程性知识较多,它们之间将产生显著的迁移;(2)如果两种技能共用的过程性知识较少,即使它们共用相同的陈述性知识,它们之间也将产生很少的迁移。 依据这一迁移理论,读写结合的教学所寻求的是:(1)通过精读细读以及评点将陈述性知识转化为程序性知识,进而言之,在读写结合教学中,阅读就是要从“读出什么”导向“怎么读出”、从“写出什么”导向“如何写出”;(2)在读与写的结合中最重

人工神经网络的发展及应用

人工神经网络的发展与应用 神经网络发展 启蒙时期 启蒙时期开始于1980年美国著名心理学家W.James关于人脑结构与功能的研究,结束于1969年Minsky和Pape~发表的《感知器》(Perceptron)一书。早在1943年,心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型(即M—P模型),该模型把神经细胞的动作描述为:1神经元的活动表现为兴奋或抑制的二值变化;2任何兴奋性突触有输入激励后,使神经元兴奋与神经元先前的动作状态无关;3任何抑制性突触有输入激励后,使神经元抑制;4突触的值不随时间改变;5突触从感知输入到传送出一个输出脉冲的延迟时问是0.5ms。可见,M—P模型是用逻辑的数学工具研究客观世界的事件在形式神经网络中的表述。现在来看M—P 模型尽管过于简单,而且其观点也并非完全正确,但是其理论有一定的贡献。因此,M—P模型被认为开创了神经科学理论研究的新时代。1949年,心理学家D.0.Hebb 提出了神经元之间突触联系强度可变的假设,并据此提出神经元的学习规则——Hebb规则,为神经网络的学习算法奠定了基础。1957年,计算机学家FrankRosenblatt提出了一种具有三层网络特性的神经网络结构,称为“感知器”(Perceptron),它是由阈值性神经元组成,试图模拟动物和人脑的感知学习能力,Rosenblatt认为信息被包含在相互连接或联合之中,而不是反映在拓扑结构的表示法中;另外,对于如何存储影响认知和行为的信息问题,他认为,存储的信息在神经网络系统内开始形成新的连接或传递链路后,新 的刺激将会通过这些新建立的链路自动地激活适当的响应部分,而不是要求任何识别或坚定他们的过程。1962年Widrow提出了自适应线性元件(Ada—line),它是连续取值的线性网络,主要用于自适应信号处理和自适应控制。 低潮期 人工智能的创始人之一Minkey和pape~经过数年研究,对以感知器为代表的网络系统的功能及其局限性从数学上做了深入的研究,于1969年出版了很有影响的《Perceptron)一书,该书提出了感知器不可能实现复杂的逻辑函数,这对当时的人工神经网络研究产生了极大的负面影响,从而使神经网络研究处于低潮时期。引起低潮的更重要的原因是:20世纪7O年代以来集成电路和微电子技术的迅猛发展,使传统的冯·诺伊曼型计算机进入发展的全盛时期,因此暂时掩盖了发展新型计算机和寻求新的神经网络的必要性和迫切性。但是在此时期,波士顿大学的S.Grossberg教授和赫尔辛基大学的Koho—nen教授,仍致力于神经网络的研究,分别提出了自适应共振理论(Adaptive Resonance Theory)和自组织特征映射模型(SOM)。以上开创性的研究成果和工作虽然未能引起当时人们的普遍重视,但其科学价值却不可磨灭,它们为神经网络的进一步发展奠定了基础。 复兴时期 20世纪80年代以来,由于以逻辑推理为基础的人工智能理论和冯·诺伊曼型计算机在处理诸如视觉、听觉、联想记忆等智能信息处理问题上受到挫折,促使人们

外文翻译---人工神经网络

英文文献 英文资料: Artificial neural networks (ANNs) to ArtificialNeuralNetworks, abbreviations also referred to as the neural network (NNs) or called connection model (ConnectionistModel), it is a kind of model animals neural network behavior characteristic, distributed parallel information processing algorithm mathematical model. This network rely on the complexity of the system, through the adjustment of mutual connection between nodes internal relations, so as to achieve the purpose of processing information. Artificial neural network has since learning and adaptive ability, can provide in advance of a batch of through mutual correspond of the input/output data, analyze master the law of potential between, according to the final rule, with a new input data to calculate, this study analyzed the output of the process is called the "training". Artificial neural network is made of a number of nonlinear interconnected processing unit, adaptive information processing system. It is in the modern neuroscience research results is proposed on the basis of, trying to simulate brain neural network processing, memory information way information processing. Artificial neural network has four basic characteristics: (1) the nonlinear relationship is the nature of the nonlinear common characteristics. The wisdom of the brain is a kind of non-linear phenomena. Artificial neurons in the activation or inhibit the two different state, this kind of behavior in mathematics performance for a nonlinear relationship. Has the threshold of neurons in the network formed by the has better properties, can improve the fault tolerance and storage capacity. (2) the limitations a neural network by DuoGe neurons widely usually connected to. A system of the overall behavior depends not only on the characteristics of single neurons, and may mainly by the unit the interaction between the, connected to the. Through a large number of connection between units simulation of the brain limitations. Associative memory is a typical example of limitations. (3) very qualitative artificial neural network is adaptive, self-organizing, learning ability. Neural network not only handling information can have all sorts of change, and in the treatment of the information at the same time, the nonlinear dynamic system itself is changing. Often by iterative process description of the power system evolution. (4) the convexity a system evolution direction, in certain conditions will depend on a particular state function. For example energy function, it is corresponding to the extreme value of the system stable state. The convexity refers to the function extreme value, it has DuoGe DuoGe system has a stable equilibrium state, this will cause the system to the diversity of evolution. Artificial neural network, the unit can mean different neurons process of the object, such as characteristics, letters, concept, or some meaningful abstract model. The type of network processing unit is divided into three categories: input unit, output unit and hidden units. Input unit accept outside the world of signal and data; Output unit of output system processing results; Hidden unit is in input and output unit, not between by external observation unit. The system The connections between neurons right value reflect the connection between the unit strength, information processing and embodied in the network said the processing unit in the connections. Artificial neural network is a kind of the procedures, and adaptability, brain style of information processing, its essence is through the network of transformation and dynamic behaviors have a

符号加工和联结主义

认知中的符号加工主义和联结主义( 姓名:郑伟学号: 2110912092学院: 计算机学院专业: 计算机应用技术) 摘要本文客观系统地介绍和研究联结主义这一认知的新的理论范式,试图阐明联结主义的基本理论,追溯其产生的背景和学术渊源,在此基础上尝试着从神经学的合理性、心理学的合理性及方法论的可行性等方面对对其进行评说联结主义是和符号加工理论一道随着认知心理学的产生而产生的认知心理学的另一研 究范式联结主义以“心理活动象大脑”作为其理论启示,以结构和功能模拟、还原的研究策略等为其方法论,通过对大脑的同构型和同型形模型的研究来揭示认知过程的本质之符号加工理论,联结主义对认知过程本质的揭示更符合人认知的真实情况。在其具体的研究过程中,联结主义特别注重和强调神经网络的整体括动以及联结权重的作用,对感知觉、学习和记忆、语言、认知障碍等问题均有较为深刻的探讨,文章对此进行了较为详细的介绍和分析研究,并认为尽管联结主义对认知过程本质的揭示更为合理,也具有一定的神经学的合理性、心理学的合理性和方法论的可行性,但与真实的认知过程相比仍有一定的局限性。文章对联结主长来发展进行了预测,认为联结主义不可能代替符号加工理论而成为认知心理学的主流,联结主义与符号加工理论的融合可能才是联结主义未来发展的必然,也可能是认知心理学的必由之路. 关键词认知联结主义符号加工神经网络 20世纪中期,西方主流心理学掀起了一场推翻行为主义心理学的革命,其结果是产生了认知心理学。认知心理学的目的在于研究和揭示人的认知过程的本质,但由于大脑本身的不可直接研究性,使其不得不在孕育和诞生之时就以假设、模拟、类比的方式来进行认知过程的研究。 符号加工和联结主义是伴随着认知心理学的诞生而出现的两种研究范式。符号加工范式把认知过程类比为计算机的运算过程,其隐喻基础是“心理活动象计算机”:联结主义则以,把认知过程类比为神经网络的整体活动。最初,两种研究范式共同活跃于认知心理学领域且并肩发展各有千秋。但是1969年,美国著名人工智能学者M.A. Minsky和S.Pa pert在对当时人工神经网络深入研究的荃础上,出版了‘感知机》一书,指出感知机的处理能力有限,从而在理论上给联结主义网络研究以沉重打击,使联结主义的研究进入了潇条期。而此时,符号加工范式则跃居主导性和支配性地位,成为认知心理学的理论基础和核心。 符号加工范式也被称为认知主义,由于其指导性隐喻和核心工具是计算机,因而它采纳的是功能的或软件的描述水平,把心智看作信息加工系统。认知主义者认为,无论是有生命的人还是人工的计算机都是通过操纵符号,即通过对符号的接收、编码、储存、提取、变换和传递来加工信息的.在信息加工系统中,符号是模式,其功能是代表、标志和指明外部世界的事物。符号通过一定的联系而形成符号系统。符号和符号结构代表着一定的内容和意义,是对外部事物的内部表征。符号不仅可以代表外部事物,也可以标志信息加工的操作。信息加工系统得到某个符号就可以得到该符号所代表的事物或进行该符号所标志的操作。Newell和Simon认为。信息加工系统均是由感受器、效应器、记忆和加工器组成的且每一组成部分均有其相应的功能,而这些功能的系统必然表现出智能行为,

论文及外文翻译格式(标准)

附件5 论文及外文翻译写作格式样例 附录1 内封格式示例(设置成小二号字,空3行) 我国居民投资理财现状及发展前景的研究 (黑体,加粗,小二,居中,空2行) The Research on Status and Future of Inhabitants’ Investment and Financial Management in China (Times New Roman体,加粗,小二,居中,实词首字母大写,空5行) 院系经济与管理学院(宋体,四号,首行缩进6字符) 专业公共事业管理(宋体,四号,首行缩进6字符) 班级 6408101 (宋体,四号,首行缩进6字符) 学号 200604081010 (宋体,四号,首行缩进6字符) 姓名李杰(宋体,四号,首行缩进6字符) 指导教师张芸(宋体,四号,首行缩进6字符) 职称副教授(宋体,四号,首行缩进6字符) 负责教师(宋体,四号,首行缩进6字符) (空7行) 沈阳航空航天大学(宋体,四号,居中) 2010年6月(宋体,四号,居中)

附录2 摘要格式示例(设置成三号,空2行) 摘要(黑体,加粗,三号,居中,两个字之间空两格) (空1行) 我国已经步入经济全球化发展的21世纪,随着市场经济的快速增长和对外开放的进一步深化,我国金融市场发生了巨大的变化。一方面,投资理财所涉及到的领域越来越广,不仅仅是政府、企业、社会组织进行投资理财,居民也逐步进入到金融市场中,开始利用各种投资工具对个人、家庭财产进行打理,以达到资产保值、增值,更好的用于消费、养老等的目的;另一方面,我国居民投资理财观念逐渐趋于成熟化、理性化;同时,其投资理财工具以及方式手段亦越来越向多元化、完善化发展。 本论文以我国居民投资理财为研究对象,综合运用现代经济学、金融学和管理学的理论;统计学、概率学的方法和工具,主要对我国居民投资理财的历史演变、发展现状、意识观念、存在的问题和主要投资理财工具进行了分析和探讨,并提出了改善和促进我国居民理财现状的对策和建议,指出了普通居民合理化投资理财的途径。 摘要以浓缩的形式概括研究课题的内容,摘要应包括论文的创新性及其理论和实际意义。摘要中不宜使用公式、图表,不标注引用文献编号。中文摘要在300-500字左右。(首行缩进两个字符,宋体,小四,行距最小值:22磅)(空1行) 关键词:(宋体,小四,加粗,左缩进:0)投资理财资理财工具通货膨胀(宋体,小四,每个关键词之间空两格,关键词的个数在3到5个之间)

人工神经网络题库

人工神经网络 系别:计算机工程系 班级: 1120543 班 学号: 13 号 姓名: 日期:2014年10月23日

人工神经网络 摘要:人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成,由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。 关键词:神经元;神经网络;人工神经网络;智能; 引言 人工神经网络的构筑理念是受到生物(人或其他动物)神经网络功能的运作启发而产生的。人工神经网络通常是通过一个基于数学统计学类型的学习方法(Learning Method )得以优化,所以人工神经网络也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间,另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题(也就是说通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和简单的判断能力),这种方法比起正式的逻辑学推理演算更具有优势。 一、人工神经网络的基本原理 1-1神经细胞以及人工神经元的组成 神经系统的基本构造单元是神经细胞,也称神经元。它和人体中其他细胞的关键区别在于具有产生、处理和传递信号的功能。每个神经元都包括三个主要部分:细胞体、树突和轴突。树突的作用是向四方收集由其他神经细胞传来的信息,轴突的功能是传出从细胞体送来的信息。每个神经细胞所产生和传递的基本信息是兴奋或抑制。在两个神经细胞之间的相互接触点称为突触。简单神经元网络及其简化结构如图2-2所示。 从信息的传递过程来看,一个神经细胞的树突,在突触处从其他神经细胞接受信号。 这些信号可能是兴奋性的,也可能是抑制性的。所有树突接受到的信号都传到细胞体进行综合处理,如果在一个时间间隔内,某一细胞接受到的兴奋性信号量足够大,以致于使该细胞被激活,而产生一个脉冲信号。这个信号将沿着该细胞的轴突传送出去,并通过突触传给其他神经细胞.神经细胞通过突触的联接形成神经网络。 图1-1简单神经元网络及其简化结构图 (1)细胞体 (2)树突 (3)轴突 (4)突触

基于多编码器多解码器的大规模维汉神经网络机器翻译模型

第32卷第9期2018年9月 中文信息学报 JOU RNAL OF CHINESE INFORM A TION PROCESSING Vol.32,No.9 Sept.,2018 文章编号:1003-0077(2018)09-0020-08 基于多编码器多解码器的大规模维汉神经网络机器翻译模型 张金超1,2,3,艾山·吾买尔4,买合木提·买买提4,刘群1,5 (1.中国科学院计算技术研究所智能信息处理重点实验室,北京100190; 2.中国科学院大学,北京100049; 3.腾讯科技(北京)有限公司,北京100080; 4.新疆大学信息科学与工程学院,乌鲁木齐新疆830046; 5.都柏林城市大学,都柏林爱尔兰) 摘要:为提升维汉机器翻译模型的翻译能力,该文提出使用多编码器多解码器的结构,搭建大规模的维汉神经网络机器翻译模型。相比于单编码器单解码器的浅层的小模型,多编码器多解码器模型具有多个编码器,可以对源语言进行多层次、多视角的压缩表示;同时具有多个解码器,可以增强目标语言的生成能力。实验证明,在大规模的训练数据上,使用该方法搭建的大规模维汉神经网络机器翻译模型,译文质量可以大幅度地超过基于短语的统计机器翻译模型和基本的神经网络翻译模型。该文还针对维汉翻译源端语言和目标端语言的翻译单元粒度进行了实验,发现维吾尔语端使用字节对编码单元、汉语端使用字单元,可以消除对汉语分词器的依赖,做到和双端都使用字节对编码单元可比的效果。 关键词:维汉机器翻译;神经网络;多编码器多解码器 中图分类号:T P391文献标识码:A A Large-scale Uyghur-Chinese Neural Machine Translation Model Based on Multiple Encoders and Decoders ZHANG Jinchao1,2,3,Aishan Wumaier4,Maihemuti M aimaiti4,LIU Qun1,5 (1.Key Lboratory of Intelligent Information Processing,Institute of Computing Technology,Chinese Academy of Sciences,Beijing100190,China; 2.University of Chinese Academy of Sciences,Beijing100049,China; 3.Tencent Technology(Beijing)CO.,Ltd.,Beijing100080,China; 4.School of Information Science and Engineering,Xinjiang University,U rumqi,Xinjiang830046,China; 5.Dublin City University,Dublin,Ireland) Abstract:To enhance the translation ability of Uyghur-Chinese translation model,the paper proposes a large-scale Neural Machine T ranslation system based on multiple encoders and https://www.360docs.net/doc/ec2023157.html,pared with the encoder-decoder based shallow model,the proposed model consists of multiple encoders to represent the source sentence in multiple p erspectives and has multiple decoders to extend the generation ability of the target sentence.The experiments on the big training corpus show that the translation quality of the proposed model surpasses phrase-based Statistical Machine T ranslation model and the basic Neural Machine T ranslation model.The paper also investigates the granu-larity of the translation unit and reveal that it is effective to employ the Byte Pair Encoding unit for Uyghur and char-acter unit for Chinese to avoid the Chinese word segmentor and achieve comparable performance with BPE-BPE sys-tems. Key words:Uyghur-Chinese machine translation;neural network;multiple encoders and decoders 收稿日期:2017-11-23定稿日期:2018-03-07 基金项目:国家自然科学基金(61331911,61262060);新疆多语种信息技术实验室开放课题(2016D03023);自治区青年科技创新人才培养工程青年博士项目(QN2015BS004) 万方数据

外文翻译---神经网络概述

外文原文与译文 外文原文 Neural NetworkIntroduction 1.Objectives As you read these words you are using a complex biological neural network. You have a highly interconnected set of some 1011neurons to facilitate your reading, breathing, motion and thinking. Each of your biological neurons,a rich assembly of tissue and chemistry, has the complexity, if not the speed, of a microprocessor. Some of your neural structure was with you at birth. Other parts have been established by experience. Scientists have only just begun to understand how biological neural networks operate. It is generally understood that all biological neural functions, including memory, are stored in the neurons and in the connections between them. Learning is viewed as the establishment of new connections between neurons or the modification of existing connections. This leads to the following question: Although we have only a rudimentary understanding of biological neural networks, is it possible to construct a small set of simple artificial “neurons” and perhaps train them to serve a useful function? The answer is “yes.”This book, then, is about artificial neural networks. The neurons that we consider here are not biological. They are extremely simple abstractions of biological neurons, realized as elements in a program or perhaps as circuits made of silicon. Networks of these artificial neurons do not have a fraction of the power of the human brain, but they can be trained to perform useful functions. This book is about such neurons, the networks that contain them and their training. 2.History The history of artificial neural networks is filled with colorful, creative individuals from many different fields, many of whom struggled for decades to

相关文档
最新文档