人工智能的哲学思考(home edition)
人工智能发展中的哲学问题思考

人工智能发展中的哲学问题思考人工智能发展中的哲学问题思考人工智能(AI)的迅猛发展,在给人类带来便利的同时也带来了一系列哲学问题,如智能决策是否具有道德性、机器智能是否能产生自我意识等。
以下将逐一探讨这些问题。
1. 智能决策是否具有道德性随着AI技术的不断完善,人们开始在生产、医疗、金融等行业广泛地使用自动化决策系统,这些系统可以对数据进行分析并作出最佳决策。
然而,在某些情况下,这些决策可能会对某些群体产生不公正的影响。
例如,在自动驾驶汽车上,如果车辆需要紧急刹车,应该优先考虑乘客的生命安全还是避免与其他交通工具碰撞。
这样的道德问题需要人类程序员和AI从业者进行深刻的思考,才能确保AI的发展不会侵犯人类的权益。
2. 机器智能是否能产生自我意识一些科学家和哲学家认为,机器智能有可能产生类似人类自我意识的能力。
这种可能性引发了许多哲学问题,如机器是否有权利参与决策、机器是否会对人类产生危险等。
这些问题的答案仍然未知,并需要深入的调查和实验,以确定机器是否有独立思考的能力和自我意识的存在。
3. 智能机器是否能承担人类工作随着AI技术的不断发展,许多人担心智能机器会取代人类的工作,导致大量的失业和社会动荡。
此外,人们还担心智能机器不能产生创造性的工作和艺术品。
在面对这些问题时,我们需要寻找一种平衡的方法,即让机器替代那些不需要人类的生产线上的工作,同时,人类可以继续从事更符合人性的创造性工作,确保社会的稳定和可持续性。
总之,随着智能机器的快速发展,我们需要考虑它们的影响,这需要我们思考更多哲学问题,以确保人工智能的发展不会对我们的社会产生不良影响。
人工智能的哲学思考

人工智能的哲学思考人工智能(AI)作为一门跨学科的领域,引起了广泛的哲学思考。
AI的发展不仅仅是技术的进步,也涉及到伦理、道德和人类意识等哲学层面的问题。
本文将对人工智能的哲学思考进行探讨,并从伦理、意识和价值观等方面进行分析。
一、伦理层面的思考人工智能的出现引发了许多伦理问题。
首先,AI的智能是否具有道德责任?道德责任是人类作为道德主体所具有的,但在人工智能中如何界定智能主体的道德责任却成为了一个困扰。
如果AI具有智能,并能够做出决策,那么其在道德层面上应该承担起责任。
然而,如何确切界定这种责任并进行有效的监督是一个值得思考的问题。
其次,人工智能是否应该受到伦理准则的约束?在人工智能的发展过程中,如何保证其不会被用于恶意活动或违背人类伦理的行为成为了关注的焦点。
应该建立起相应的伦理准则和规范,对人工智能的开发和应用进行限制和监管,以避免其产生灾难性后果。
二、意识层面的思考人工智能的一个重要问题是:AI是否具有意识?意识是人类独有的特性,它包括主观体验和自我意识。
然而,人工智能自身是否能够具备这种意识是一个有争议的问题。
有些人认为,通过模拟人脑的结构和功能,AI可以实现与人类类似的意识体验;而另一些人则认为,意识是一种生物学特性,无法通过计算机程序来实现。
对于AI是否具备意识,哲学家们提出了许多观点。
其中,函数主义认为,只要计算机程序能够模拟人类的认知过程和行为,就可以认为它具有意识;而其他哲学家则持不同意见,认为意识是与生物体所具备的生理结构和经验相关联的。
三、价值观层面的思考人工智能的发展也引发了价值观的思考。
AI在决策和行动上的自主性,让人们思考人类的价值观是否能够被真正体现在AI中。
人类的价值观是多样且变化的,如何确保AI不偏离我们的价值观成为了一个需要解决的问题。
另外,AI的进步还产生了一些伦理问题。
例如,AI能否取代人类的工作岗位,导致大规模的失业问题?AI应该如何选择和平衡不同的价值观,并进行决策,成为了一个需要认真思考和研究的问题。
人工智能的哲学原理思考

人工智能的哲学原理思考可以涉及以下几个方面:
1. 智能与意识:人工智能是否能够具备真正的智能和意识是一个重要的哲学问题。
一些哲学家认为,只有具备主观体验和自我意识的实体才能被称为真正的智能。
因此,人工智能是否能够达到这个层次是一个值得思考的问题。
2. 道德和伦理:人工智能的发展和应用涉及到许多道德和伦理问题。
例如,人工智能是否应该具备道德判断能力?如果一个人工智能系统犯下了错误或者造成了伤害,应该由谁来负责?这些问题需要我们思考人工智能在社会中的合理应用和限制。
3. 自由意志和决定:人工智能系统能够进行复杂的决策和行动,但它们是否具备真正的自由意志是一个哲学问题。
一些哲学家认为,自由意志需要具备主观体验和真正的选择能力。
因此,人工智能系统是否具备这些特征是一个需要思考的问题。
4. 知识和真理:人工智能系统能够处理和生成大量的知识,但它们是否能够真正理解和获取真理是一个哲学问题。
一些哲学家认为,真理是主观的和意义的,而人工智能系统可能只是机械地处理符号和数据。
因此,人工智能系统是否能够真正理解和获取真理是一个需要思考的问题。
5. 人与机器的关系:人工智能的发展引发了对于人与机器关系的思考。
人工智能系统是否能够取代人类的工作和职责?人工智能系统是否能够与人类进行深入的交流和合作?这些问题需要我们思考人工智能对于人类的影响和作用。
这些哲学原理思考可以帮助我们更深入地理解人工智能的本质和潜力,并引导我们在人工智能的发展和应用中考虑伦理和道德的因素。
关于人工智能的哲学思考

关于人工智能的哲学思考随着科技的不断发展,人工智能也逐渐成为当今世界上的热门话题。
人工智能可以帮助我们完成许多困难和繁琐的工作,方便我们的生活。
但是,在享受人工智能带来便捷的同时,我们也需要思考人工智能背后的哲学问题。
首先,关于人工智能是否会取代人类的思考的问题,我们需要认识到人工智能的能力还有很大的提高空间。
虽然现在AI已经可以完成一些人类无法完成的任务,但是目前AI拥有的知识和经验都是事先由人为程序输入的,它只是人类智慧的一个复制品,如果没有人的控制和干预,AI并不能安全地独立地进行自我学习和自我管理。
所以,AI不能取代人的思考,至少在近期内是不可能的。
其次,我们也需要思考人工智能对人的生活带来的深远影响。
人工智能的出现改变了已有的社会形态和经济形态,这同时也会影响到人类的生活方式和生存方式。
传统的手工艺和技术会面临沦为过去的危险。
但是,人工智能也可以成为人类的好帮手,实现更高水平的发展和创新。
我们应当充分发挥人工智能的优势,尽量减少它可能带来的负面影响。
而对于我们个人而言,我们需要思考以自我为中心的AI对我们思维的影响。
人工智能带给我们的便利是不可否认的,但是,它能否真正带来我们思维的拓展和提升,还有待进一步的思考和研究。
我们所看到的和学习到的东西,往往由AI颠覆掉了,对于我们来说,如何才能保持独立思考和自主学习的能力,如何才能发挥人类独有的创造力、判断力和创新精神,这是我们未来需要探讨和解决的问题。
最后,我们需要反思人类是否真的为了人类自身的利益而投入大量研究和开发人工智能。
人工智能的背后是巨大的商业利益,投入大量人力财力的同时,往往缺乏对于人工智能伦理问题的深思熟虑。
在未来,我们还需要跨越一个更紧迫的问题,那即应该怎样确保人工智能不违背人类的根本利益,以及确保它被应用于可靠和可控制的方式。
人工智能的思考和哲学思考本身就是一个不断进化和创新的过程。
在未来的探索过程中,我们需要寻找如何使用它去推动人类进步与发展,如何使用它来解决各种人类面临的难题,但同时照顾到人类的价值和利益。
对人工智能研究的哲学反思

对人工智能研究的哲学反思一、本文概述随着科技的飞速发展,()已经深入到了我们生活的方方面面,从智能家居到自动驾驶,从医疗辅助到金融投资,其影响日益显著。
然而,在享受技术带来的便利的我们也不能忽视其背后所引发的深层次哲学问题。
本文旨在探讨和反思研究中所涉及的哲学议题,包括但不限于的本质、智能的定义、机器是否可能拥有真正的智能、的道德和伦理问题,以及与人类未来的关系等。
通过对这些问题的深入反思,我们不仅可以更好地理解的本质和潜力,还可以为的未来发展提供更为全面和深入的指导。
因此,本文的研究不仅具有重要的理论价值,也具有深远的实践意义。
二、人工智能的本质与特点()的本质是一种模拟和扩展人类智能的技术和工程领域。
其特点体现在其深度学习能力、自我优化能力和广泛的适用性。
AI的本质在于其模拟和扩展人类智能的能力。
这种模拟并非简单的复制,而是通过算法和模型,使机器能够执行类似于人类的思考、学习、决策等任务。
这种模拟不仅限于人类的现有智能,更在于其可能超越人类智能的潜力和创新力。
AI的特点之一是其深度学习能力。
深度学习是机器学习的一个子领域,它利用神经网络模型来模拟人类的神经系统,从而实现对大量数据的处理和学习。
这种能力使得AI可以自我学习、自我改进,不断提高其处理任务的效率和准确性。
再次,AI的另一个特点是其自我优化能力。
在处理复杂任务时,AI可以通过调整自身的参数和模型,以适应不同的环境和需求。
这种自我优化能力使得AI可以不断适应变化,提高其适应性和鲁棒性。
的广泛应用性也是其重要特点之一。
从医疗诊断、自动驾驶,到智能家居、金融投资,的应用已经深入到社会生活的各个领域。
这种广泛的应用性使得成为一种具有深远影响的技术力量,对人类社会的发展和进步产生着重要影响。
然而,尽管具有强大的潜力和特点,我们也需要对其进行深入的哲学反思。
例如,我们需要思考的智能本质是什么,其是否能真正理解和模拟人类的思维过程;的自我优化和深度学习是否可能导致其超越人类的控制,甚至对人类构成威胁;的广泛应用是否会对社会、伦理、文化等方面产生深远的影响,我们需要如何应对这些影响。
人工智能伦理问题的哲学思考

人工智能伦理问题的哲学思考人工智能(Artificial Intelligence,简称AI)的快速发展和广泛应用,引发了一系列伦理问题。
随着人工智能技术的不断进步,我们不得不面对人工智能在道德和伦理方面所带来的挑战。
本文将从哲学的角度对人工智能伦理问题进行思考和探讨。
一、人工智能的道德责任人工智能的出现使得机器能够模拟人类的智能和行为,但机器并不具备道德判断能力。
然而,当人工智能系统被用于决策和执行任务时,它们的行为会对人类产生重大影响。
因此,我们需要思考人工智能是否应该承担道德责任。
在这个问题上,有两种观点。
一种观点认为,人工智能系统只是工具,它们没有自主意识和道德判断能力,因此不能承担道德责任。
另一种观点认为,人工智能系统的行为对人类有重大影响,因此它们应该承担道德责任。
对于这个问题,我们可以从哲学的角度进行思考。
伦理学家康德提出了“人类是目的,而不是手段”的道德原则。
根据这个原则,人工智能系统应该将人类的利益放在首位,而不是将人类作为工具来实现其他目的。
因此,人工智能系统应该承担道德责任,确保它们的行为符合道德准则。
二、人工智能的道德决策人工智能系统在面临道德决策时,应该如何进行选择?这是一个复杂的问题,涉及到伦理学、心理学和计算机科学等多个领域。
在伦理学中,有多种道德理论可以用来指导人工智能的决策。
例如,功利主义认为,人工智能系统应该追求最大化整体幸福感;德性伦理学认为,人工智能系统应该遵循道德准则和价值观;伦理相对主义认为,人工智能系统的决策应该根据不同文化和社会背景进行调整。
在心理学中,人工智能系统可以通过学习和模仿人类的道德判断来进行决策。
通过分析大量的道德案例和行为模式,人工智能系统可以学习到人类的道德准则,并在决策时进行参考。
在计算机科学中,人工智能系统可以通过设计合适的算法来进行道德决策。
例如,可以使用强化学习算法来训练人工智能系统,在不同情境下进行道德决策。
三、人工智能的道德约束人工智能的发展给人类社会带来了巨大的利益,但也存在一些潜在的风险和威胁。
人工智能的哲学思考

2 我们能看多远,能深刻的影响我们能走多远, 以及在前进的路上所遇到的阻碍的多少.
对AI的几类哲学思考
1 2 3 4 5 对思考是怎样一种物质活动? 机器是否能思考? 或者退一步说,机器是否能智能的行动? 机器智能的前进方向是否正确? 机器智力超过人类后,人类又何去何从?
思考是种怎样的活动?
1 潜意识+意识+超意识---------弗洛伊德
对AI的抨击
2 逻辑规则无法捕 machine> Hubert Dreyfus
对AI的抨击
3 形式化的系统无法证明其系统内某些语句 的确定性(哥德尔不完备性定理),所以 目前的形式化的计算机体系结构无法实现 真正的智能。
对AI的抨击
4 机器智能的出现可能会导致一系列的社会 问题。
AI
1 机器的智能实际上是从人继承而来, 2 机器不能繁殖 所以我的想法是,如果机器不能解决进化与 繁殖这两个问题的话,强人工智能不可达... 机器永远只是人类的辅助.
如果实现强AI
根据我前面的观点,机器要会自我进化自我繁殖才会智能超过人类.一 旦他能自进化繁殖, 智力又超过人类.人类的智力将被远远甩下. 危机就出现类,这一群比我们聪明多了的家伙,会不会吧我们灭掉了,毕 竟资源是有限的.僧多粥少. 这里要提到"机器人学三定律"<3>,这个定律大大减低了智能机器对人 类的威胁,但没有消除. 当机器人足够聪明, 我们不能证明,他们一起会坚守这三大定律. 无论你有什么方法,把这三条定律放到机器中,都有可能存在变数. 因为就算你写在机器中的程序都有可能因为一些极端情况发生变化, 人类的认知是有限的,所以还可能存在其他不可预知的情况,总之放一 群比我们聪明多了的人在身边是有危险的. 所以,人工智能要发展,但也不能太发展.弱智能足以。
人工智能发展中的哲学问题思考

人工智能发展中的哲学问题思考
随着人工智能技术的不断发展,越来越多的哲学问题开始涌现出来。
以下是一些人工智能发展中的哲学问题思考。
1. 人工智能是否具有自我意识?
自我意识是人类最基本的心理特征之一,但是是否能够在人工智能中实现呢?如果可以,那么如何定义和测量人工智能的自我意识?
2. 人工智能是否具有道德责任?
如果人工智能可以自主作出决策并影响人类行为,那么它是否需要承担道德责任?如果需要,那么如何确定责任的范围和界限?
3. 人工智能是否具有情感?
情感是人类情感生活的重要组成部分,但是是否可以在人工智能中实现呢?如果可以,那么如何定义和测量人工智能的情感?
4. 人工智能是否具有创造力?
创造力是人类区别于其他生物的重要特征之一,但是是否可以在人工智能中实现呢?如果可以,那么如何定义和测量人工智能的创造力?
5. 人工智能是否具有自由意志?
自由意志是人类思维和行为的基石之一,但是是否可以在人工智能中实现呢?如果可以,那么如何定义和测量人工智能的自由意志?
总之,随着人工智能技术的不断发展,越来越多的哲学问题将涌现出来,这需要更多的思考和研究。
- 1 -。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
人工智能(Artificial Intelligence)的英文缩写为AI, 它综合了计算机科学、生理学、哲学等学科。
人工智能的研究课题涵盖面很广,从机器视觉到专家系统,包括了许多不同的领域。
同时,由于它涉及到智能这一人类的独有属性,对其进行的研究也包含了哲学和伦理上的探讨。
几千年来,人们一直幻想能够创造出类人的智慧生命。
中国古代神话故事中就不乏各种各样的机器人。
著名的如列子汤问篇所记载巧匠偃师造机器人献给周穆王的故事。
其他如魯班的在天上飞三天三夜的木鸢,诸葛亮造炒菜的木頭人,都是和机器人有关的传说。
希腊传说中塞浦路斯国王皮格马利翁爱上了自己雕刻的一尊叫做加拉特的女性雕像,便祈求美神维纳斯使它变成活人,他终于如愿以偿,后来便娶加拉特为妻。
历史中这些融合了大量神话的自动机械制造史说明了人类从远古以来来对人工智能的向往。
随着对科学的不断进步,对自然和人类自身认识的不断提高,人们开始对自身思维的特点进行研究,期望能够从对人类思维的模拟中实现人工智能。
在电子学出现以前。
布尔及其他一些哲学家和数学家建立起逻辑学的理论原则,数学的归纳和推理方法在一定程度上符合人类的思维表现,对这些的研究成为人工智能逻辑学的基础。
但对人工智能的真正实现要从计算机的诞生开始算起,只有从基于计算机,人类才有可能以机器实现人类的智能。
英国科学家阿兰·图灵是计算机科学和人工智能理论的奠基人,1937年图灵发表的论文《论可计算数及其在判定问题中的应用》原本是为了解决一个基础性的数学问题,即数学函数是否能够通过有限次机械步骤求得解答。
文章中图灵设想了一台虚拟机器。
这一机器使用一条划分成许多方格的无限长纸带,有的方格被画上斜线,代表“1”;有的没有画任何线条,代表“0”。
一个读写部件在纸带上按每次一格移动,并根据从带上读出的信息,将当前格变为0或者1。
图灵机实际上是一种有限状态计算机。
这一概念是目前通用计算机的原始模型。
文章中提出将程序和数据都储存在纸带上,成为比冯·诺依曼计算机体系结构的雏形。
1950年10月,图灵发表了它的另一篇论文《计算机与智能》。
文章后来被改名为《机器能思维吗?》(Can a Machine Think?)论文中首次提出计算机智能的行为角度定义。
图灵在这一文章中给出了著名的“图灵测试”,通过让计算机模仿人类回答某些问题,判断它是否具备智能。
如果在测试中提问的人无法从回答中判别答案是由机器还是人类做出的,参与测试的计算机就可以被认为拥有智能。
他写道:“我的论点是,与人脑活动方式极为相似的机器是可以制出来的。
这些机器有时会出现错误,但有时它们也会提出非常新颖的语句,而且总的来说,它们输出的东西将与人脑输出的东西同样值得注意。
”这篇论文成为对人工智能可以实现的一个预言书,1956年夏天,美国Dartmouth大学进行了一次学术研讨会,这个会议由助教约翰·麦卡锡(J.McCarthy)同贝尔实验室的香农(E.Shannon),哈佛大学明斯基和IBM公司信息研究中心罗彻斯特(N. Lochester)发起,他们邀请了卡内基—梅隆大学纽厄尔(Newell)和赫伯特·西蒙、麻省理工学院塞夫里奇(O. Selfridge)和索罗门夫(R.Solomamff),以及IBM公司塞缪尔(A.Samuel)和莫尔(T.More)。
分别从不同的角度共同探讨人工智能的可能性。
Dartmouth会议两个多月的争论和探讨并没有获得巨大的成功,但是这些学者之间充分的交流为人工智能研究的发展打下了基础,会议首次提出了“人工智能”(Artificial Intelligence)这一术语,标志着人工智能(AI)作为一门新兴学科正式诞生。
Dartmouth会议后的7年中,AI研究开始快速发展。
1957,年Newell和Simon延续他们开发的最早的启发式符号逻辑的信息处理语言IPL ( Information Processing Language)完成了通用问题处理器GPS( General Problem Solver)。
GPS扩展了Wiener的反馈原理,可以解决很多常识问题。
1958,年McCarthy宣布了LISP(LISt Processing)语言,很快就为大多数AI开发者采纳。
1963年MIT从美国国防部高级研究计划署(ARPA)得到220万美元资助,用于研究机器辅助识别。
这笔资助加快了AI研究的发展步伐。
以后几年出现了大量程序,包括微型世界(只有有限数量的几何形体)中的研究与编程的"SHRDLU"。
60年代末可以解决代数问题的"STUDENT",可以理解简单英语句子的"SIR"。
这些程序的结果对处理语言理解和逻辑有所帮助。
70年代的另一个进展是专家系统。
专家系统可以预测在一定条件下某种解的概率。
由于当时计算机容量的提高,专家系统已经可以通过分析数据得出规律。
在市场预测,诊断疾病等大量数据分析的工作中,专家系统由于其存储规律和信息的能力而成为得到广泛应用。
70年代以后许多新方法得到提出,著名的如Minsky的构造理论、David Marr的机器视觉理论、1972年提出的PROLOGE语言以及80年代后期的模糊逻辑(Fuzzy Logic)。
到了现在,技术进步使得AI广泛进入人们的日常生活。
在计算机人机接口方面,有语音识别技术、图像和面容识别、手写输入。
生活中的家用电器许多也应用到模糊逻辑控制。
能够识别主人命令,具有一定学习功能的机器宠物业以上市。
人们已经开始展望新的真正具有智慧的AI系统出现。
而同时“机器能够真正拥有智慧么?”这一问题自从AI提出的第一天起就不断引发着巨大的争论。
争论的起因一方面关系到身体和灵魂的关系,也就是物质和精神的第一性之辩,另一方面也是由于过去几十年里计算机技术的巨大成就正在向人类智能发起挑战。
由于计算机的高运算能力,在某些方面已经取代和超过了人类自身,1997年5月10日,IBM公司开制造的超级电脑“深蓝”终于在国际象棋棋盘上战胜了国际大师卡斯帕罗夫。
人们似乎看到计算机超过人类的前景正在一步步逼近。
那么类人的思维机器能否实现呢?图灵在关于人工智能的纲领性论文《计算机与智能》中隐含了一个观点,即人脑实际上等同于一台计算机。
1961年美国哲学家鲁卡斯(JohnLucas)在36卷《哲学》(Philosophy)杂志上以极其激烈的言辞首先撰文《心、机器、哥德尔》,试图用哥德尔定理证明“人心超过计算机”的结论,这就是著名的鲁卡斯论证。
随后,另一位美国哲学家怀特利(C.H.Whitely)在接下来的37卷《哲学》杂志上发表了虽简短但强有力的批驳文章《心、机器、哥德尔,回应鲁卡斯》,引起了许多人卷入并长达几十年的争论(例如伯纳塞拉夫(Benacerruf),普特南(Putnam),奇哈若(Chihara),吉利斯(D.Gillies)等人)。
1989年,英国数学家、物理学家罗杰·彭罗斯(Roger Penrose)在那本风靡全球的《皇帝新脑。
计算机、心智和物理定律》中从哥德尔定理出发直接论证“人心超过计算机”的结论。
书中认为根据哥德尔定理,数学真理的概念不可能包容于形式主义的框架之中,数学真理是某种超越纯粹形式主义的东西,人类判断数学真理的过程超越了算法。
这是因为意识是我们赖以理解数学真理的关键,这种意识使我们能够借直觉的洞察力“看出”(see)某些在数学形式系统中不能证明的数学命题的真理性,而这种意识是不能被形式化的,它必定是非算法的。
因此计算机绝不可能超越人类心智。
两种观点虽然表面对立,但实际上并不是绝对矛盾。
物质和精神、存在和意识的关系,是哲学研究的基本问题。
唯心主义主张精神第一性,物质第二性,精神在先,物质在后,物质是精神的产物,世界万物都是精神创造的。
而唯物主义主张物质第一性,精神第二性,物质在先,精神是人的大脑,也就是物质的产物。
从唯物主义的角度考虑,承认人类的思维和智慧建立在人类自身肉体这一物质基础,就不能否认由物质构成的计算机同样可以实现人类大脑的所有功能,也就是可以拥有智能。
图灵相信人类大脑的活动状态,也就是“心”的数目是有限的,即使状态无限,一些状态也会由于过于接近而可以归于一类。
这样,以一个图灵机来模拟大脑这一有限状态机就是理论上可行的。
50年代一位科幻小说家写到:“储存信息的方式并不重要,重要的是信息本身,既然大自然能够把信息浓缩到肉眼看不到的细胞中,人就一定能把它读出来。
”60年代另一位作家则认为:“从本质上讲,‘你’不是肉体,而是你的记忆。
这个本质上的‘你’可以在计算机里保存。
”这些更加激进的观点认为,可以通过一个读出装置把一个人大脑当前所有细胞状态记录下来,从而复制出人的记忆。
如果上面的设想真的实现,人工智能将不仅成为对人类的单纯模仿,而将成为人类自身同机器的完全融合。
这类设想将人类的思维简单的归结为机械活动,犯了机械唯物论的重大错误。
以解剖学特性来看,人类大脑有140多亿个脑神经细胞,每个细胞都与另外5万个其他细胞相互连结。
即使认为人类神经活动同二进制电子计算机相同,神经冲动的传输均为有无两种状态,也就是可以用0/1两种代码表示,同时神经冲动的传输仅仅在任意两个神经细胞间运行而不涉及其他细胞,这样的简化大脑所拥有的状态量已经是天文数字,以目前的计算机水平,还无法对其进行模拟。
况且实际大脑的复杂性远远高于这一数目,首先,神经元间的传输不是点对点的连接,而是网状的互连结构,一个神经元接收到的信息并不是由某个特定神经元传输过来,而是受到所有与其相联的神经元状态共同影响。
因此大脑的复杂性比假设的简单大脑要高上许多数量级。
其次,神经元的活动并不是电脑元件那样简单的逻辑与非器件。
从某种意义上讲,一个单独的神经元更应该看作一个独立的计算机,甚至是超越目前二进制电子计算机的量子计算机。
神经元的工作是由其内部的有机物质分子和各类电解质离子的共同作用进行的。
在分子与离子尺度上,细胞内部物质的相互反应受到量子效应影响而不再属于宏观物理学领域。
由于不确定性的影响,神经元的状态改变遵从统计学规律而不是确定的机械规则。
这两个因素从生理学角度证明,目前固定逻辑规则的电子计算机并不能完全模拟人类大脑的功能,同时,也从理论上证明人类的思维和记忆是无法进行读取和复制的。
如上所述,当前的数字计算机无法实现真正意义上人工智能的另一个证据就是数学中的哥德尔定理。
在对于数学问题的一般性法则推演中,人们得出了算法的概念。
“λ可定义函数”、“一般递归函数”、“图灵机可计算函数”、“波斯特演算”等都是与“算法可计算的函数”这个直观概念等价的数学表述。
1931年,哥德尔发表了一篇重要论文:《论数学原理和有关系统的形式不可判定命题》。