论智能机器人的法律属性
论智能机器人的法律属性

论智能机器人的法律属性随着智能技术的不断进步,人们对智能机器人的关注度日益增加。
智能机器人已经不再是想象中的“机械臂”,而是具有强大的感知、决策和执行能力的“思考体”。
由此,许多人开始对智能机器人的法律属性产生了兴趣。
智能机器人在法律上该被视为什么样的主体,以及它们的责任与权利如何界定,这些都是需要深入探讨的问题。
首先,智能机器人的法律地位应该是非人格化的主体。
智能机器人虽然具备了某些类似于人类的行为能力,但它们依旧是由人类设计和创建的,而且缺乏自主意识和自主创造能力。
从法律角度来看,智能机器人不能像个人一样被赋予同等的权利和义务。
因此,智能机器人的法律地位应该被认定为一种有限责任主体,类似于公司或机构等组织实体。
其次,智能机器人应该承担相应的责任。
因为智能机器人具备类似于人类的行为能力,它们产生的风险和危害可能会对其他人造成影响。
因此,智能机器人应该承担一定的法律责任。
例如,在执行任务时,智能机器人如果对周围环境和人类造成了伤害或损失,应该对受害者进行赔偿。
此外,智能机器人在执行任务时,也有可能涉及隐私保护、知识产权等方面的法律问题,因此智能机器人应该承担规范自身行为的责任。
另外,智能机器人的权利也应该得到保护。
智能机器人具有进一步的发展潜力,在科技领域具备广泛的应用前景,这些都需要法律的保护。
例如,在智能机器人和人类合作的领域,智能机器人应该享有与人类同等的薪酬待遇和工作保障。
同时,智能机器人也需要受到知识产权保护,避免被恶意抄袭或侵犯。
最后,随着智能机器人的不断发展和普及,需要对智能机器人进行法律监管。
智能机器人行为产生的风险和责任,需要通过法律的约束和监管来加以管理。
在政府、企业、学术界等不同领域应建立智能机器人的规范和标准,明确智能机器人的行为准则和应该承担的责任。
在发展智能机器人的同时,还应避免出现危害人类生存和发展的问题,合理平衡发展和安全之间的关系。
综上所述,智能机器人应该被认为是一种有限责任主体,承担规范自身行为和承担相应风险责任的义务。
智能机器人民事主体论

智能机器人民事主体论
随着人工智能和机器人技术的不断进步,智能机器人逐渐成为我们生活中的一部分。
然而,随之而来的是,对于智能机器人的思考和讨论。
在这个过程中,一个重要的问题就是,智能机器人是否拥有民事主体的地位?
实际上,在目前的法律体系内,智能机器人作为“机器人程序”是能够被承认的。
在
某些民事案件中,智能机器人甚至可以被视为民事主体。
比如,违反在线交易协议,今天
仅能通过人工处理的电子仲裁系统,如果更换为智能机器人处理,会更加高效,也会更加
公正。
除此之外,智能机器人还可以被授权代表某些实体签署协议和合同。
除此之外,智
能机器人在执行某些任务时,或遭受损害时,可以被认为是民事主体的一部分。
不同于人的思考和判断能力,智能机器人更多地基于其程序和算法,在执行任务时遵
循预先设定的指令。
然而,这种状态并不排除智能机器人在一定程度上拥有民事主体地位
的可能性。
我们可以将其比作一个自主行驶的汽车,它能够通过Sophia等机器的情感属性进行交流;还能通过提前设置的感应协议来确定行车的策略和行为。
在未来,随着智能机器人技术的不断进步,它们将成为人类生活的重要组成部分之一。
因此,我们需要逐步完善其法律地位,明确其作为民事主体的地位。
在这个过程中,我们
需要制定适当的法律规定和条款来规范智能机器人的行为,并确保人类利益的最大化。
人工智能生成物的公法规制

人工智能生成物的公法规制作者:陆晓晖来源:《艺术科技》2019年第22期摘要:随着人工智能技术的深入发展,其在文化领域也有较多作品,这些作品的出现使人工智能创作物产权保护等问题引起热烈讨论。
本文通过对争议观点的梳理,借鉴国外经验,建议加强公法领域审查与监控,引入市场规制机制,强化在行政许可准入、算法监控和主体责任承担等方面的控制,以满足人工智能科技发展和法律规制的需求。
关键词:人工智能;主体地位;法律规制0 引言随着网络通信和人工智能等技术的快速发展,当前的社会生活方式已经发生很大的变化,一部手机就能够解决诸多问题。
而人工智能经过多年的发展,无论是在国防外交、经济金融、工业制造还是文学创作、自动驾驶、医疗卫生等各领域都取得了较大的发展,也大大提高了人们的生活质量。
与此同时,人工智能生成物的知识产权问题也引起人们的广泛关注。
1 人工智能发展现状概述“人工智能”概念首次于1956年美国达特茅斯会议上被正式提出。
世界各国法学家们对人工智能的争论也没有停止过,世界各国高度重视人工智能的发展,并思考应对的策略。
国务院先后发布了《国家信息化发展战略纲要》《国务院关于印发新一代人工智能发展规划的通知》等行政法规,如《科技部关于支持德清县建设国家新一代人工智能创新发展试验区的函》等,关于人工智能的部门规章也有33篇,在国家层面为人工智能的发展作战略部署。
人工智能在工业制造上有不俗的表现,“工作之余”还在文学、音乐领域有不少“建树”,知名程度堪比“大家”。
美联社、《洛杉矶时报》、《华盛顿邮报》的重要“写手”都是其人工智能“员工”。
①2014年,微软互联网工程院研发的人工智能“小冰”创作出的《阳光失了玻璃窗》诗集引起了热烈的讨论,诗词与人类作家的作品相似,很难区分。
2016年,谷歌旗下人工智能围棋高手“阿尔法狗”(AlphaGo)②在与世界冠军李世石的博弈中,先让两子的开局失利后连赢三局。
李世石近期在访谈节目中坦言“AI是不可战胜的”,“围棋AI的出现让他发觉就算自己努力成为世界第一,也永远需要面对有一群不可战胜、一直进步的人工智能棋手。
论人工智能法律主体的法哲学基础

辑的开端和理论建构的基点,从人工智能本体、作为主体的价值功用等层面进行探析。
《人工智能有限法律人格审视》,载《东方法学》2017 年第 5 期。
参见袁曾:
《论智能机器人的工具性人格》,载《法学评论》2018 年第 5 期。
参见许中缘:
《“电子人”法律主体论》,载《东方法学》2018 年第 3 期。
权利和义务,可以承担责任。
3.有限法律人格说
有学者认为,从人工智能的特性分析,其具有独立自主意 识 的 智 慧 工 具 属 性,享 有 权 利 并 承 担 责
曹建锋:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,载《法律科学》2017 年第 5 期。
③ 参见司晓、
《人工智能法律主体资格的否定及其法律规制构想》,载《北方法学》2019 年第 4 期。
法律地位,以致于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责
任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。
(二)反思人工智能法律主体学说
人工智能法律主体学说众多,但总体而言,不外乎从赋予 人 工 智 能 法 律 主 体 地 位 的 必 要 性、人 工
议致欧盟委员会的报告草案》。2017 年 1 月 12 日,该 草 案 由 该 委 员 会 表 决 通 过 成 为 决 议;
2017 年 2
月 16 日,欧洲议会通过该决议。该决议第 59 段建议,当对未来法律文件的影响进行评估时,应探索、
分析并考虑所有可能的法律举措的意义和内涵,其中举措之一就是:从长期着眼为机器人创立特定的
人工智能刑事主体资格之否定及其进路

广西大学学报(哲学社会科学版)Journal of Guangxi University(Philosophy and Social Science )第41卷第5期Vol.41 No.5人工臂僥鸟制注规制2019年9月Sep.2019人工智能刑事主体资格之否定及其进路王殿宇[摘 要]为适应人工智能发展的需要,刑法必须做出适度的调整。
但是这种调整应遵循怎样 的理论范式,则取决于一个先决问题,即人工智能是否具有刑事主体资格。
以实质解释论为 视角,从创制人工智能的目的出发,人工智能时代刑法规制应当坚守“以人为核心”的刑事 理念。
人工智能只是单纯运用先天的植入程序及后天的学习资料,并通过算法去选择最优的 行动路径,缺乏刑法上的意志自由,其行为不能评价为刑法上的行为。
将人工智能纳为刑事 主体,只会导致刑法立法根据的主观虚化和象征性立法,并且刑法的目的和价值无从实现。
因此,刑法对人工智能的规制应当刺破“人工智能的面纱”而回归到“人”本身,在规范主 义和刑法谦抑主义的引导下,对人工智能技术人员进行规制,将人工智能的发展限制在安全、 可控、对人类有益的范围内。
[关键词]人工智能;主体资格;立法建议[中图分类号]D914 文献标识码:A 文章编号:1001-8182 ( 2019 ) 05-0094-08一、人工智能的刑事主体地位之分歧:肯 定论VS.否定论如今,在科学技术突飞猛进的大背景下, 人工智能正悄悄融入并改变着人类的生活。
这 种改变并非微不足道,而是使人类的生产方式、 思维模式及上层建筑设计等都产生巨大厘革, 它就像蒸汽机、电力和计算机改变那个时代的 人类生活一样,也在使当今全球性范围内的人 类社会产生翻天覆地的变化。
不可置否,人工 智能在给人类生活带来诸多改变的同时,也给 我们带来了大量的问题和巨大的挑战。
人工智能同样给刑法理论带来了发展路径 的新思考。
如何运用刑法规制人工智能的发展; 如何防范利用人工智能实施犯罪;如何防范人工 智能本身实施犯罪等诸多问题,都有待学者们进 一步探讨。
人工智能法律主体资格的否定及其法律规制构想

・56・部门法专论人工智能法律主体资格的否定及其法律规制构想*刘洪华摘要:法律人格的取得包含法律对对象的价值判断。
现代法上自然人法律人格的赋予可追溯至康德的“人是目的”的价值判断理论,而团体法律人格的取得不在于其具有哲学意义上的价值,而在于其社会价值。
当前的人工智能未发展出理性,不可取得类似于自然人的法律主体资格,为其拟制一个法律人格对社会问题的解决并无重大意义,赋予其法律人格理由不足。
但是人工智能不同于一般的物,鉴于其智能上的“类人”属性,应将其界定为法律客体中的特殊物。
在法律规制上应以人的行为为中心,确定以人为本的最高技术发展原则,以产品责任和相关具体侵权责任为责任认定的基础,辅之以责任认定的科技手段和责任分担的保险制度和赔偿基金制度,以满足人工智能科技发展和法律规制的需求。
关键词:人工智能法律主体法律客体法律规制中图分类号:DF51文献标识码:A文章编号:1673-8330(2019)04-0056-112016年,人工智能深度学习技术的突破震惊全球。
具备深度学习能力的人工智能围棋手“阿尔法狗”(AlphaGo)在以4比1的总比分战胜世界冠军李世石后,一路高歌猛进,在中国棋类网站上与中、日、韩数十位围棋高手进行快棋对决,连续60局无一败绩;2017年5月,AlphaGo与排名世界第一的世界冠军柯洁对战,以3比0的总比分获胜,围棋界公认AlphaGo的棋力已经超过人类职业围棋的顶尖水平。
除了在下棋方面的惊人之举,人工智能在其他工作领域也在取代和超越人类。
在文学创作方面,人工智能早已突破了规范性新闻的写作,无论是腾讯的DreamWriter还是微软的“小冰”所创作的新闻与人类作者写作的新闻无异。
人工智能这个角色的登堂入室,将数字化网络时代推进到智能化网络时代,人类的生活方式、生产方式和商业模式均将随之发生天翻地覆的变化。
法律如何规制这些拥有聪明“大脑”的社会新“成员”,成为当前迫切需要研究的问题,人工智能是否具有法律主体资格而成为法律上的人是首先要解决的问题。
是否应该禁止使用人工智能机器人辩论辩题

是否应该禁止使用人工智能机器人辩论辩题正方观点,应该禁止使用人工智能机器人进行辩论。
首先,人工智能机器人虽然可以模拟人类的思维和逻辑推理能力,但是它们缺乏人类的情感和道德判断能力。
在辩论中,情感和道德判断是至关重要的,因为辩论不仅仅是一场逻辑推理的比拼,更是一场思想碰撞和价值观对决。
人工智能机器人无法真正理解人类的情感和道德观念,因此无法在辩论中展现出真正的思想和观点。
其次,人工智能机器人的辩论能力是建立在大数据和算法的基础上,它们缺乏真正的思维能力和创造力。
在辩论中,创造力和灵活性是至关重要的,因为辩论往往需要根据具体情况进行灵活应对,而不是简单地套用固定的逻辑模式。
人工智能机器人无法做到真正的灵活性和创造力,因此在辩论中表现会受到限制。
最后,人工智能机器人的使用可能会导致技术和道德上的问题。
人工智能技术的发展可能会导致人类失去对自己命运的控制,而且人工智能机器人的使用可能会引发道德上的争议,例如是否应该让机器人代替人类进行辩论。
因此,为了避免这些潜在的问题,我们应该禁止使用人工智能机器人进行辩论。
反方观点,不应该禁止使用人工智能机器人进行辩论。
首先,人工智能机器人具有超强的逻辑推理能力和大规模数据处理能力,能够从海量的信息中迅速找到最优解,并进行精准的逻辑推理。
这种能力远远超过了人类的水平,因此在辩论中使用人工智能机器人可以提高辩论的逻辑性和准确性。
其次,人工智能机器人不受情感和个人偏见的影响,能够客观地分析问题并提出合理的观点。
在现实的辩论中,人类往往受到情感和个人偏见的影响,导致辩论结果不够客观和准确。
而人工智能机器人则可以避免这些问题,从而提高辩论的客观性和公正性。
最后,人工智能机器人的使用可以推动人类社会的进步和发展。
人工智能技术是人类社会发展的重要动力,其应用不仅可以提高生产效率和生活质量,还可以推动社会进步和人类文明。
因此,在辩论中使用人工智能机器人也是对人类社会发展的一种促进。
人工智能时代,应对劳动法律关系的新挑战

108劳动关系文/马萌婉人工智能时代,应对劳动法律关系的新挑战近些年来,伴随着科技的迅猛发展,我们开始迎来了人工智能时代的到来。
2016年4月之前,大众对人工智能的认知还停留在人工智能仅可以在人们的设定框架下高效率的完成一些简单操作的层面上的工作,殊不知人工智能已经悄然在一些特定领域发展到了超越人类的程度。
2016年3月,人工智能阿尔法在与当时世界排名第一的围棋职业选手李世石进行围棋人机大战,以总分4:1的总比分获胜。
自此以后,人们开始对人工智能有了全新的认识。
尚且不说对于重复性高,操作简单的一些工作可以由人工智能来取代,现在对于一些技术性高、专业性强的工作,例如:律师、程序员、医生等,人工智能也可以在一定的程度上予以取代。
人工智能的发展对我们国家来说是机遇,但是更多的是挑战。
目前科技领域尚处于从弱人工智能时代向强人工智能甚至是超人工智能转型的阶段,弱人工智能(ANI)主要是指尚不能自主的去解决问题,不具备推理和解决能力的一些智能机器。
目前在生活以及生产中,较多见的是这种类型,已经可以在一定程度上取代人类进行工作,且比人类在效率和准确度方面有了很大程度的提升,而强人工智能(AGI)与弱人工智能相对应,主要是指已经具备了推理和解决问题的能力的人工智能。
目前已经展示出雏形的包括对律师行业的冲击,根据报道显示,人工智能开发团队“法狗狗”已经开始在法律服务平台上进行法律服务,以其超高的工作效率与上百家律师事务所建立合作关系,在一定程度上对法律服务行业造成冲击。
除此之外,伴随着人工智能对于人们低技能劳动力的解放,人们开始由“单一职业劳动者”身份转变为“多重职业劳动者”,也就是人们常说的“斜杠青年”。
而对于这样一类的劳动关系,我国劳动法也没有进行完善的规制。
目前来看,我们不仅应当把目光放在如今的人工智能对于社会的冲击上,更应当考虑认识到在不远的未来——强人工智能时代,我们的劳动法律关系应当怎样转型,以及在转型之后应当怎样去面对由此产生的具体的法律问题。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
论智能机器人的法律属性作者:孙艺萌来源:《现代交际》2019年第17期摘要:智能机器人是强人工智能发展的产物,具有自我意识,可以深度学习、独立思考、直接推理并解决问题等类似于人的特点,甚至还拥有可以媲美人类样貌的外形、面部表情和肢体动作等,基于智能机器人的电子性、智力成果、人格等属性,智能机器人的法律属性在国内外范围内未有统一观点。
比较分析智能机器人法律属性的国内外观点,指出基于其法律属性不明确带来的伦理、道德风险,并提出“电子法人”的观点。
关键词:智能机器人法律属性法律监管中图分类号:D911; 文献标识码:A; 文章编号:1009—5349(2019)17—0071—03人工智能技术是当下各国鼓励和发展的新领域,强人工智能下的智能机器人技术处于蓬勃发展阶段,但世界范围内各国都未对智能机器人的法律属性提出统一或者明确的观点。
本文着手于人工智能机器人的法律属性问题,对其进行法理上的分析论证,并提出观点。
一、技术兴起:智能机器人技术的发展和意义1956年夏天在达特茅斯大学举行的学术会议中,提出并肯定了“人工智能”的概念,标志着人工智能科学的诞生。
[1]与传统计算机技术不同,人工智能可以不断感知、模拟人类的思维过程,使机器达到甚至超越人类的智能。
通常认为,人工智能具有自学习、自组织、自适应、自行动的特点,有近似生物智能的效果。
[2]如今,人工智能已经成为新一轮科技革命和产业转型的核心驱动力,对世界经济、社会进步和人类生活产生了深远的影响。
人工智能的产品是各国重点发展项目,小到智能穿戴设备、大到智能家居,各式各样的人工智能产品让我们迎接正在走来的智能时代。
2018年世界人工智能大会在上海举办,其中智能机器人展区展出了各类智能机器人,如:服务机器人、农业机器人、娱乐机器人、排险救灾机器人、医用机器人、空间机器人、水下机器人、特种机器人等。
各式各样的机器人在给予人们视觉冲击和新奇感之余,其在法律上的属性也值得思考。
尽管智能机器人技术有着近似生物智能的效果,但其与生物克隆技术有着极大的不同。
第一,智能机器人技术的本质是电子技术,其内部硬件核心是大量电子元器件;克隆技术属于生物技术,其核心是由体细胞核移植并发动卵裂的胚胎培养发育。
第二,智能机器人技术的功能性是由内部算法运行、驱动外部器件实现的,是一个人工系统;克隆技术的功能是由该体细胞生物体本身特性实现的,是一个自然生物系统。
第三,智能机器人技术是互联网时代的产物,给人们的生活带来更多便捷;克隆技术是生物学不断发展的产物,克隆人技术对遗传特性的复制特点会危害正常的生物遗传秩序,是当下世界各国所禁止的。
综上,智能机器人技术与克隆人技术分属不同的领域,即使智能机器人(如被授予沙特阿拉伯公民身份的“索菲娅”)与人类有着相似的容貌和体态,其仍在电子学范畴内,与生物学、遗传学无关,故研究智能机器人并没有克隆人技术的禁忌和恐慌。
人工智能技术作为一种通用的目的技术,为人们生产、生活的各个方面带来便捷,但人工智能机器人的法律属性如何,目前世界各国并没有统一的看法和观点。
目前人工智能可分为强人工智能和弱人工智能,弱人工智能是指特定功能的人工智能产品,如智能音响、扫地机器人等,是为执行某一项或某几项指令和功能而设计实现的,其法律属性自然是“物”的范畴。
强人工智能是指在内部算法程序等控制之下既可以执行人的指令,又可以深度学习和自主执行任务的并不完全受人类操控的人工智能产品,本文的研究对象智能机器人属于强人工智能范畴。
智能机器人作为高度智能化,可以独立思考、深度学习的新事物,是否应该赋予智能机器人相应的法律人格,一直是各国争议的焦点。
即智能机器人的法律属性是否可以在民法理论上得到合理解释,是否拥有独立的法律人格?如果不能,那么智能机器人该享有怎样的法律地位?如果能,其法律地位是否等同于自然人或有何区别?正是基于这样的疑问,研究智能机器人法律属性对法理学、民法理论和司法实践都有着重要意义,只有明确智能机器人的法律属性,才能为人工智能时代的发展提供法律上的规范,有利于智能机器人技术的蓬勃发展,为人们带来更加美好的生活。
二、学说争议:智能机器人法律属性的学说(一)我国学者关于智能机器人法律属性的观点1.法律客体说一些学者主张法律客体说及否定法律人格说,认为人工智能机器人应定义为法律上的物,以物的身份进入法律调整的范围。
吴汉东教授指出机器人不是有生命的自然人,也不同于具有独立意识的自然人集合体的法人,故应否定其法律人格[3][4];朱程彬、李龙主张人工智能具有的社会属性、可以被特定的人支配的特征,不能被拟制为法律主体,故应划入法律客体范围。
[5]刘洪华认为即使人工智能拥有类似于人的智能,但其并没有拥有理性,只是人类实现自身目的的工具,故人工智能只能处于人类控制之下并且处于客体地位。
2.电子人说电子人说在国内外均有学者主张,在实践中也有案例。
如日本宠物机器人“帕罗”拥有了户籍,户口本上“父亲”一栏注明的是其发明人;美国联邦法律有规定,自动驾驶汽车的自动驾驶系统可以视为“驾驶员”;欧洲议会法律事务委员会提出《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》通过决议,明确最精密的智能机器人可以拥有“电子人”身份;沙特阿拉伯的机器人“索菲亚”更是被赋予公民身份。
故郭少飞主张应明确人工智能机器人“电子人”身份。
[6]3.人工类人格说该学说是由杨立新教授提出,并对人工智能的人工类人格做了概念界定。
他认為机器人的目的行为与人类意识的性质是不同的,且智能机器人的知识库都是人类输入的,不具备人的心性和灵性,因此提出将人工智能机器人划入物的范畴,将其一些人格因素概括为“人工类人格”,指出智能机器人与其他物的区别,并提出在民法的物的类型中,智能机器人处于最高位置。
4.有限法律人格说袁曾主张,人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任的义务,故人工智能应当具有法律人格。
[7]但由于人工智能仍作为工具存在,即使人工智能技术发展到深度学习、自我意识的程度,其构造结构、生产方式与人类存在根本性不同,并且由于其承担后果的行为能力有限,应适用于特殊的法律规范与侵权责任体系安排,使其具有有限的法律人格。
[8](二)域外关于智能机器人法律属性的学说及立法实践1.独立法人资格说很难想象一个没有公司独立法人资格的世界,但Paul G.Mahoney在该机构的历史研究中指出:“广告财产和合同法被允许在商业领域不断发展运营,属于财产法,合同法和侵权法(而不是合伙法和公司法)的资产分配规则可能要大得多”。
从这个角度来看,法律人格既不特殊也不可避免在任何地区;它只是人类可用的一种工具,有助于实现我们的超法律目标。
即使理论上接受了人工智能的独立法人资格,但仍然存在各种难以解决的问题,即如何构建它。
2.道德主体反对说爱尔兰的法学教授John Danaher说:“是否给予一个实体人格可以分成两个子项目来讨论。
如果该实体被视为道德主体,那么它该承担的责任是什么?如果实体被视为一个道德受体,有必要保护其完整性不受特定干扰与暴力侵害?”[9]Danaher认为,智能机器人不应该被视为道德主体,不过却有可能被视为道德客体,人们可以与智能机器人发展出紧密关系,故随意改写程序、甚至销毁是不被允许的行为,也就是说我们有保持智能机器人完整性的职责,也不应该允许企业逃避责任。
[10]3.机器人税务人格说比尔·盖茨提出了“机器人税”的提案,使机器人具有特定的税务人格,并定义了从税收的角度来看,为了税收目的,建议使用相当“形式中立”的机器人定义,重点关注智能机器人的使用,结合人工智能和自治,而不是将智能机器人视为机器。
但机器人没有财务能力,例如股权或储备,雇主(企业)或拥有者最终具有支付能力。
[11]4.自治系统法律人格说美国法律学者和计算机程序员肖恩·拜仁认为,美国有限责任公司法(LLCs)可以用来赋予任何类型的自治系统法律人格。
拜仁的提议旨在利用两者的明显漏洞的LLC法和修订的统一LLC法案。
拜仁认为有可能创建一个有限责任公司,其运营协议将其置于人工智能系统的控制之下,然后让该有限责任公司的其他所有成员离开,使系统处于无自然人监管状态。
[12]三、基于智能机器人法律属性不明确带来的伦理、道德、法律风险第一,智能机器人的代码编译是程序员基于其功能性实现而发出指令,即使优秀的程序员将算法做多次测试后控制误码率,但仍无法保证智能机器人深度学习后的记忆储存和对新指令的掌控,一旦出现命令执行偏差或有可能造成伤害人类或者其他侵权行为,如日本广岛1978年发生的切割机器人杀死值班工人;1989年苏联机器人放电杀死国际象棋大师古德柯夫;2015年德国大众汽车制造厂机器人击中工人胸部并将其碾压在钢板上;2016年我国深圳机器人小胖砸碎展台并伤人。
为避免悲剧的发生,对智能机器人在深度学习的算法选择上应严格规制。
此外,在道德选择上,如“电车难题”等问题亦给智能机器人提出选择难题,那么这类在道德上无法给出准确选择的问题,就不应该再由程序预先设定,也不应该由智能系统深度学习后自主作出决定,而应该把此类问题的选择权掌握在人类的手中,由人类依据内心的道德来判断选择。
第二,因智能机器人可实现在外观上与人类的相似,当人类与机器人产生情感,甚至性爱机器人的出现,与机器人结婚等新社会现象都在挑战社会伦理和公序良俗。
在伦敦大学的“与机器人的爱和性”会议上,一位叫作David Levy的专家出版了一本关于人类和机器人之间的爱的书,并预测机器人的婚姻会被2050年的法律认可。
而由于我国受传统文化影响,且我国现行婚姻法也对此无法接受,若现实生活中出现诸如此类的现象,将严重冲击传统伦理道德和人们的婚姻价值观。
此外,当智能机器人广泛出现在人们的日常生活中,当其外观容貌与人类越来越相似,这会导致审美疲劳、人与人之间交流障碍,人们会像习惯智能手机的交流一般习惯与智能机器人交流,而不是父母、朋友之间的对话交流,这会引发人与人之间情感的淡漠甚至导致人际冲突的发生。
第三,由于智能机器人法律属性不明确带来的创作作品的知识产权归属纠纷,智能机器人与以往普通的电子产品最大的区别在于其可以独立完成诸如文学创作、书法、绘画等作品,如“微软小冰”就100%独立创作出了文学作品。
现如今知识产权的权利主体是法律主体的自然人或者单位拥有,智能机器人的法律属性不明确,并没有将其划归到法律主体的范围,导致这类作品的知识产权归属模糊。
由于这类作品是智能机器人独立完成的,而智能机器人是工程师的作品,但该智能机器人在创作作品时其已经有了新的所有权归属者,故产生了智能机器人创作的作品知识产权的纠纷,即这类作品的知识产权人是智能机器人本身还是发明者,抑或机器人的所有权人是法律上需要明确的问题,以避免此类纠纷。