论算法侵权的法律规制路径

合集下载

论算法的法律规制

论算法的法律规制

论算法的法律规制引言:随着人工智能和大数据的快速发展,算法已经成为现代社会的核心技术之一。

算法应用广泛,涉及金融、医疗、交通、社交媒体等各个领域。

然而,随之而来的是一系列的法律问题,例如算法的公平性、隐私保护、责任追溯等。

因此,对算法的法律规制势在必行。

一、算法的公平性公平是法治社会的基础原则之一,也是民众对算法技术的合理期望。

然而,现实中算法的公平性却时常受到质疑。

因为算法通常是由人编写的,人们的主观意识和偏见会被带入到算法中。

比如,招聘算法在筛选简历时可能存在性别、种族等歧视偏好,社交媒体算法在推送信息时可能存在偏向某一政治观点的倾向。

因此,为了保障算法的公平性,必须引入法律规制。

法律可以要求算法开发者进行公平性测试和审查,同时规定对于存在歧视的算法应进行修改或淘汰,从而确保算法不会对个人权益造成损害。

二、算法的隐私保护随着算法技术的发展,个人数据被广泛收集和应用。

这些数据可能包含个人身份信息、健康状况、购买习惯等敏感信息。

如果算法开发者未经用户授权或超出用户授权范围将这些敏感信息用于个人画像、广告定向等目的,将严重侵犯用户的隐私权。

因此,法律应当对算法中的数据使用做出明确规定。

一方面,法律可以要求算法开发者在收集个人数据时明确告知用户用途和范围,并取得用户的明示同意。

另一方面,法律还应规定算法开发者在使用个人数据时遵循数据最小化原则,只收集和使用必要的信息,并采取技术手段保障数据的安全,防止数据泄露和滥用。

三、算法的责任追溯算法技术虽然带来了便利和高效,但随之而来的是亦或意外的风险和责任。

比如,自动驾驶算法在发生事故时如何确定责任,金融交易算法在失误导致巨额损失时如何追究责任。

要解决这些问题,必须规定算法的责任追溯机制。

一方面,法律应当明确规定算法开发者对于算法的设计和运行负有相应的责任,对于其故意或过失造成的损害应承担赔偿责任。

另一方面,法律还应要求算法开发者进行完善的风险评估和测试,以最大程度减少潜在风险,并要求算法开发者建立与用户之间的合同关系,明确双方的权责义务。

算法歧视的法律规制

算法歧视的法律规制
社会与文化因素
社会和文化背景对算法歧视的产生 也有影响,如历史、文化、宗教等 因素可能被错误地反映到算法模型 中。
算法歧视的影响与危害
损害公平与正义
01
算法歧视可能导致某些群体在教育、就业、医疗等领域遭受不
公平待遇,破坏社会公平和正义。
降低效率与增加成本
02
算法歧视可能导致资源分配不合理,降低社会整体效率,同时
公正和透明。
研究不足与展望
01 02
研究方法的局限性
现有的研究方法主要集中在文献梳理和实证分析上,未来可以尝试引入 新的研究方法,如模拟实验、案例研究等,以更深入地探究算法歧视的 本质和规律。
法律规制的具体措施
目前关于算法歧视的法律规制还处于初级阶段,未来可以深入研究如何 通过立法、司法、行政等手段,制定更加具体、可操作的规制措施。
国内算法歧视法律规制的实践与经验
• 中国:中国目前还没有专门针对算法歧视的法律规制。但是, 中国在《网络安全法》和《数据安全法》等法律中规定了数据 使用和处理的公平性和透明性原则。此外,中国也在积极探索 和制定相关法规来规范算法歧视问题,例如上海和浙江等地已 经出台了数据要素流通的地方性法规,其中涉及了算法公平性 的相关内容。
提高算法透明度
要求企业公开算法原理、参数和结果,增强算法的透明度, 便于公众了解和监督。
加强公众参与和社会监督
加强公众参与
通过举办公开听证会、征求公众意见等活动,让公众参与到算法歧视法律规制的制定和实施过程中,增加法律规 制的民主性和科学性。
加强社会监督
鼓励社会各界对算法歧视问题进行监督,包括媒体报道、学术研究等,形成全社会的共同关注和监督氛围。
算法歧视的法律规制可行性
通过对算法系统的设计和使用进行规范,以及对算法决策结果进行监督和救济 ,可以实现对算法歧视的法律规制。同时,随着人工智能技术的发展,也可以 通过技术手段来预防和减少算法歧视的发生。

论算法的法律规制

论算法的法律规制

论算法的法律规制引言:随着科技的不断发展,算法已经成为了我们社会中不可忽视的一部分。

从搜索引擎、社交媒体到自动驾驶汽车,算法技术的广泛应用给我们的日常生活带来了许多便利,然而,与之同时也引发了许多法律和道德问题。

因此,如何对算法进行法律规制成为了一个亟待解决的问题。

一、算法的定义和分类算法是一种用于解决问题或完成任务的有限步骤集合。

它们通过对输入数据进行处理、运算和分析,得出预期的输出结果。

根据不同的应用领域和问题类型,算法可以被分为多种不同的类型,例如排序算法、搜索算法、机器学习算法等。

二、算法的法律挑战1. 隐私和数据保护在大数据时代,算法对大量个人数据的收集、分析和利用成为了常态。

然而,这种操作也带来了巨大的隐私和数据保护问题。

个人信息的泄露、滥用以及算法对个人行为的追踪,都可能对个人权益造成侵犯。

因此,需要建立严格的隐私和数据保护法律法规来保护用户的权益。

2. 歧视和不公平算法在很多决策过程中起到了重要作用,例如招聘、信用评估、社会福利分配等。

然而,如果算法的设计和实施中存在偏见或不公平,就会带来社会的歧视和不平等。

因此,需要对算法进行审核,确保算法的公正和中立性。

3. 责任和法律纠纷当算法出错导致严重损害或影响时,如何确定责任成为一个问题。

算法是由人编写和设计的,但由于算法的复杂性和自主性,很难确定责任的归属。

因此,需要建立起相关的法律框架来规定算法的责任和处理机制,以便防止可能引发的法律纠纷。

三、算法的法律规制途径1. 算法透明度为了保证算法的公正和中立性,有必要要求算法提供透明度。

这意味着人们应该了解算法如何工作,包括其输入、输出和决策过程。

同时,算法的设计者应该提供算法的源代码和相关文档,以便监督和检查算法是否满足法律和道德要求。

2. 算法审核机制为了防止算法的歧视和不公平,可以建立独立的算法审核机构,对算法进行审查和评估。

该机构可以包括法律专家、技术专家和相关利益相关者,以确保算法的公正性和合规性。

算法的法律规制研究

算法的法律规制研究

算法的法律规制研究一、本文概述随着信息技术的飞速发展,算法已深度融入我们生活的方方面面,从搜索引擎、社交网络到自动驾驶、金融投资,算法的影响无所不在。

然而,算法的广泛应用也带来了一系列法律问题,如数据隐私、算法歧视、算法决策透明性等。

因此,对算法的法律规制研究显得至关重要。

本文旨在深入探讨算法的法律规制问题,分析算法在应用中产生的法律问题及其成因,并提出相应的法律规制策略。

文章首先将对算法及其应用领域进行简要概述,明确研究对象和范围。

接着,文章将分析算法应用中存在的法律问题,如数据隐私泄露、算法歧视、算法决策不透明等,并探讨这些问题产生的根源。

在此基础上,文章将提出一系列法律规制策略,包括制定算法透明度标准、加强算法监管、推动算法伦理建设等。

这些策略旨在保护公众利益,促进算法技术的健康发展。

文章将总结研究成果,展望未来算法法律规制的发展方向,为相关立法和监管提供参考。

通过本文的研究,我们期望能够为算法的法律规制提供理论支持和实践指导,推动算法技术的健康、可持续发展。

二、算法的法律属性在探讨算法的法律规制之前,我们首先需要明确算法的法律属性。

算法,作为一种特定的技术手段,其法律属性并非一目了然,而是涉及多个层面和维度。

从知识产权法的角度来看,算法可以被视为一种技术秘密或计算机软件,从而享有相应的知识产权保护。

这主要是因为算法往往涉及到一系列复杂的数学公式、编程逻辑和数据处理方法,这些都属于创新性的智力成果,符合知识产权法对于创新性和实用性的要求。

因此,对于算法的知识产权保护,可以借鉴现有的专利法、著作权法等法律规定。

算法在法律上也可以被视为一种工具或手段。

作为一种辅助决策或自动化处理的工具,算法在很多领域都发挥着重要作用,如金融、医疗、交通等。

在这些领域中,算法的使用往往需要遵守相应的法律法规,确保其合法性和合规性。

因此,对于算法的工具属性,我们需要从法律上对其进行规范和监管,确保其在使用过程中不会侵犯他人的合法权益。

大数据时代下智能化算法侵权的认定规则

大数据时代下智能化算法侵权的认定规则

大数据时代下智能化算法侵权的认定规则在大数据时代,智能化算法的快速发展和广泛应用给互联网行业带来了巨大的商业潜力和利益。

然而,智能化算法的运用也不可避免地引发了一系列的侵权问题。

为了保护知识产权和鼓励创新,制定一套科学合理的智能化算法侵权认定规则势在必行。

本文将结合实际情况,提出一套适应大数据时代的智能化算法侵权认定规则。

首先,智能化算法侵权认定规则应当明确侵权行为的定义。

智能化算法侵权是指在未经许可的情况下,他人擅自使用他人的智能化算法,侵犯了智能化算法的知识产权。

在定义时,应包括擅自使用、未经许可和知识产权等关键词,以明确智能化算法侵权的主要要素。

第三,智能化算法侵权认定规则应注重侵权行为的证明。

在大数据时代,智能化算法的应用场景复杂多样,因此对侵权行为的证明需更加严谨和细致。

除了证据链的构建外,还应包含涉嫌侵权行为的详细描述、侵权行为对原权利人的影响以及可能引发的损害等信息。

第四,智能化算法侵权认定规则应注重侵权责任的划分。

在划分侵权责任时,应综合考虑侵权人的主观恶意、行为性质、影响程度等因素。

如果侵权人具有恶意且侵权行为造成了重大损失,应给予相应的侵权惩罚;如果侵权行为较轻微且对原权利人的利益影响较小,可以采取警告、赔偿等措施。

最后,智能化算法侵权认定规则应考虑法律法规的制约和引导。

法律法规对于侵权行为的认定和赔偿等方面有着明确的规定,智能化算法侵权认定规则应与法律法规保持一致,并应依法调整和完善。

综上所述,智能化算法侵权认定规则在大数据时代下至关重要。

这套规则应明确侵权行为的定义,注重对算法创新的保护,关注侵权行为的证明和侵权责任的划分,并与现行法律法规保持一致。

只有制定了科学合理的智能化算法侵权认定规则,才能更好地保护知识产权和鼓励创新。

算法的权力应用与规制

算法的权力应用与规制

规制措施与算法权力逻辑和风险 的关系
规制措施与算法权力逻辑和风险的关系
规制措施在很大程度上影响着人工智能算法的权力逻辑和风险。合理的规制 措施可以提高算法的公正性和透明度,限制其滥用和不当行使。同时,规制措施 也可以有效地降低隐私泄露和人类失业等风险的发生概率。
规制措施与算法权力逻辑和风险的关系
然而,过度的规制也可能限制人工智能算法的发展和应用。因此,在制定规 制措施时需要权衡利弊,既要确保算法的合理应用和发展,又要切实保护公众的 利益和权益。
结论与展望
结论与展望
本次演示分析了时代算法的权力逻辑、风险及规制措施。合理的规制措施可 以有效地降低隐私泄露和人类失业等风险的发生概率,同时也可以促进算法的公 正、透明和可持续发展。
在商业领域,算法被广泛应用于市场营销、生产优化、人力资源管理等方面。 通过算法,企业可以更准确地了解消费者需求、优化生产流程、提高人力资源配 置效率等,进而实现利润最大化。例如,电商平台推荐系统、智能制造、企业资 源计划(ERP)等都是算法在企业层面的实际应用。
3、社会层面
3、社会层面
算法在社会层面的应用包括医疗健康、交通运输、环境保护等方面。例如, 通过基因测序和人工智能技术,我们可以进行疾病预测和个性化治疗;通过智能 交通系统,我们可以提高道路通行效率、减少交通拥堵;通过环境监测和机器学 习技术,我们可以实时监测空气质量、预测自然灾害等。
参考内容
内容摘要
随着技术的飞速发展,算法在各个领域的应用越来越广泛。在这个背景下, 算法的权力逻辑逐渐形成,并带来了一系列的潜在风险。本次演示将探讨时代算 法的权力逻辑,分析其带来的风险,并提出相应的规制措施。
人工智能算法的权力逻辑
人工智能算法的权力逻辑

数据安全视角下的算法妨害及其法律规制问题研究

数据安全视角下的算法妨害及其法律规制问题研究

数据安全视角下的算法妨害及其法律规制问题研究内容提要:算法参与社会决策出现了算法妨害的现象。

为了更好地保障主体的人身和财产安全,应制定算法社会的基本伦理,促进算法合同条款合规化,强化对算法决策的监督,构建数据安全的算法社会。

关键词:算法妨害;算法规制;算法本质;数据安全智能化、网络化时代人工智能成为推动虚拟数字空间创新性发展的新引擎,数据、算法、算力是驱动人工智能发展的三大核心要素。

随着智能算法升级迭代,自动化决策技术其以价值中立的表象参与到产品导购服务、个人求职、无人驾驶等社会生活的各个层面。

但由于其参与社会决策的过程缺乏透明性、可解释性、可公开性,算法引起的算法合谋、算法歧视、算法操控和算法错误等算法妨害,以一种隐蔽的手段影响相关主体的个体自治、言论自由等基本权利,违背算法创建的初衷。

一、算法妨害类型化分析算法起初是一种基本的、客观的、中立的数学运算过程。

通常认为,自动化决策基于数据客观主义所建构的算法中立能够克服人类的偏见与情感陷阱,但种种实例揭示其并不是牢不可摧的。

耶鲁大学的巴尔金教授首次提出“算法妨害”的概念。

巴尔金教授将“算法计算能力的社会不公正使用,成本外部化到无辜的其他人身上”称为算法妨害[[1]](The Algorithmic Nuisance)。

相较于传统侵权法中“侵害”的概念,这些不利后果是间接性的和非显而易见的。

(一)算法歧视在计算机科学领域,面对海量数据,其目标变量和数值由算法设计者定义,由此算法以及自动化决策的过程都将不可避免受到其价值观的影响。

如果线上收集的数据存在瑕疵,即便算法设计具备合理性,其算法决策结果也会因为训练具有偏向性的数据集而偏离算法设计的目标。

另外,算法决策的不公开性剥夺了被决策个体的表达权与反对决策权,个人对此却毫不知情,对于决策结果的异议缺乏救济渠道,维权困难重重。

(二)算法标签算法通过对个人与群体进行分类(包括:年龄、收入、性别、学历等),构建用户标签体系。

算法的法律规制研究共3篇

算法的法律规制研究共3篇

算法的法律规制研究共3篇算法的法律规制研究1随着人工智能和算法技术的发展,其在各个领域的应用越来越广泛。

与此同时,随着算法应用的扩大,也带来了一些法律和伦理方面的问题。

为此,许多国家和地区已经开始制定算法的法律规制,以保证该技术在人类社会中的安全和公正应用。

本文将探讨算法的法律规制研究。

一、什么是算法法律规制算法法律规制是指为了控制算法在社会中的使用,保护公民权益和社会安全,政府或相关机构制定的法律、政策或其他发布的准则。

二、为何需要算法法律规制1.损害公民权益算法缺乏透明度和可解释性,使得算法的逻辑和决策过程难以理解,导致算法在某些情况下可能会对公民的人身财产权益造成损害。

2.数据隐私泄露算法需要大量的数据支持,而且现实中的许多数据采集行为经常伴随着数据隐私泄露。

这种数据隐私泄露会给个人的身心健康及其财产权造成威胁。

3.引发与伦理道德相悖的结论在某些应用领域,算法能力比人类更优异,它很可能得出违背伦理与道德的结论。

三、国内外算法法律规制研究进展1.美国2016年,美国联邦贸易委员会(FTC)发布了一份关于算法和人工智能的报告,指出了算法对市场和消费者的重大影响,并建议监管机构要密切关注这一领域。

2018年,旧金山市向企业和政府机构发出“透明算法人口学习立法”(Transparent, Accountable and Fair Algorithms)的新规。

该规定要求企业和政府机构公布其使用机器学习系统和算法的情况。

此外,纽约市也在2019年推出了一项与透明算法有关的新规。

2.欧盟2018年,欧盟委员会通过了一项关于算法透明度和监管的倡议,旨在加强算法恰当使用的安全性和防范人权侵害的能力。

3.我国2021年,“算法必须遵循法律法规,不得侵害公民的知情权和隐私权、不得歧视性别、种族和年龄等”被写入《数据安全法》的草案中(正在征求意见),标志着我国的算法法律规制已经开始探索。

此外,2020年10月,中国共产党中央委员会印发了《关于构建更加完善的产权保护制度的意见》,其中明确提出要加强对互联网等领域数据产权的保护,促进数据资源可持续开发利用。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

论算法侵权的法律规制路径作者:李思颍来源:《青年与社会》2020年第14期摘要:因特网的广泛应用让算法应用席卷了社会的各个领域,信息时代重构了信息传播的结构、突破了信息体量的上限、实现了信息的实时性传输、丰富了信息交互的方式,使算法这个数据驱动的力量可以跨空间、跨时间地采集和分析大量的数据,从而让算法发挥它真正的潜力。

但是随着算法技术的发展,算法应用产生的一系列问题也开始突显。

本论文旨在通过阐述算法技术发展给权益保护带来的风险,分析侵权法应对算法侵权的可行性与缺陷,提出对算法侵权归责制度的具体设想。

关键词:算法;法律;侵权责任一、机器学习算法与最优数据表达机器学习是目前利用算法处理数据最主流的一种方式,它可以从数据中学习并做出预测和决策,是现阶段解决人工智能问题的重要方式。

为了达到准确预测和决策的目标,机器学习会通过对原始数据的提炼,产生更好的数据表示,使后续任务的完成更加准确与高效,所以找到最优的数据表达是机器学习的核心任务。

机器学习发展至今出现了可以解决多种问题的学习方法,学界一般将这些机器学习方法分为监督式学习、非监督式学习、强化学习、深度学习。

二、算法应用给权益保护带来的风险算法作为当今社会建设中的一个重要技术支撑,广泛应用于教育、医疗保健、能源、商业、交通等领域。

例如在库存管理中,可以通过算法来解决库存管理中出现的问题,减少库存周转时间,提高空间利用率。

在疾病诊断相关组(DRG)中,使用机器算法将大量患者的信息快速进行分类。

在商业应用中,电商使用算法来进行动态定价,以增加市场竞争力和使利润最大化,学习和分析顾客的浏览和点击行为,定制产品和服务或进行个性化产品推送。

似乎这样看来算法和人类决策相比,算法更为着快速、效率、准确。

然而随着算法应用领域的不断扩张,其对权利的侵害让我们产生疑问,算法真的可以凌驾于人类之上,作出比人类更为公正的决策?Predpol犯罪预测模型与LSI-R量表就是算法在公共安全和司法领域应用的例子,前者可以预测未来犯罪活动发生地点,后者可以评估罪犯的犯罪危险性水平。

非营利组织Pro Publica 研究发现,这类算法系统性地歧视了黑人,白人更多被错误地评估为低犯罪风险,而黑人被错误地评估为高犯罪风险的概率是白人的两倍。

这两者运用算法作出的决策都直接影响了公安部门与司法部门的行为,从而对算法决策相对人受到平等法律保护权利造成侵害。

在社会经济方面,算法可以高效处理数据的能力,使一级价格歧视成为现实,其导致最典型的现象就是“大数据杀熟”,直观体现就是“不同人不同价”、“不同手机不同价”等。

甚至定价算法为商家之间达成默示垄断协议创造了捷径,从而构成“算法共谋”。

如果这种情况不加以控制,算法的应用最终会侵害消费者权益,扰乱市场秩序。

在个人信息保护方面,算法技术的发展已经将个人信息权受到侵害的危险上升到了另一个高度,利用算法甚至可以从已被透露的个人信息中推测出未被透露的个人信息。

三、算法侵权适用侵权法的可行性与局限性侵权法模式在规制算法方面有重要优势,它能够快速响应算法时代侵权行为的复杂化,救济方式更为灵活。

然而,算法的技术性特点和应用广泛的特点使得算法侵权变得普遍、行为方式更为隐秘、性质难以被确定、损害结果更为多样且影响范围更大。

目前的侵权法对算法侵害行为的认定与责任承担存在诸多困难,因此有必要深入分析算法侵权适用侵权法的可行性与局限性,以期明确侵權法对算法侵权的未来立法方向。

(一)算法侵权适用缺陷产品侵权责任的局限性承担缺陷产品侵权责任包括以下两种情况:第一,产品本身存在缺陷,且是由于该缺陷对他人人身权利、财产权利造成侵害;第二,由于销售者的过错导致产品缺陷,且是由于该缺陷对他人人身权利、财产权利造成侵害。

但是算法侵权适用产品责任路径存在一定的困难:首先,算法的产品性质的难以确定。

比如像百度、Google等搜索引擎和电商的定价算法模型很难被认为是用于销售的产品,搜索引擎的算法决策服务是免费提供的,甚至不享有知识产权中的专利权保护;其次,产品责任是建立在产品缺陷的前提之下,但是算法侵权可能是由于输入数据的错误和偏差所造成的。

最后,算法侵权相对人的举证困难。

产品责任适用的是一般举证责任,而算法与一般产品最大的差异是其自动化技术发展的复杂性,受侵权人往往发现不了算法的缺陷,无法证明其缺陷存在,也无法确定算法决策侵权的原因是由于算法缺陷造成的。

(二)算法侵权适用一般侵权责任(1)侵害行为算法关系人之间行为互相所造成的影响错综复杂,因此确定算法侵权者的义务产生来源是界定义务范围的重点。

毋庸置疑,算法侵权人首先必然需要承担不侵害他人合法权益的基本消极义务。

但由于算法自动化决策的不透明性和算法应用的大规模化,导致其可能侵权的风险增高,并且一旦侵权,所造成的损害也会更大。

因此,事先规定算法侵权人的作为义务可以更加完善的保护法律认为重要的社会关系。

比如,规定算法所有人或控制者由于先前行为创设了危险情况所产生的作为义务,或者是由于算法所处的平台拥有法律规定的特定的职责所产生积极作为的安全保障义务。

除此之外,算法侵权作为一种新型侵权类型,侵害行为的方式复杂且多样,这其中还应当包括“准侵害行为”,也就是在算法完全自主决策情况下的侵权行为,因为这个行为从客观上看并不被算法应用者完全控制。

(2)侵权主体在算法决策造成他人损害时,不能简单地认定由该算法开发者或使用者承担侵权责任,因为算法模型可能是由多个主体共同开发设计,同时也要考虑算法使用者对算法决策结果的过程的影响。

这就涉及到多个侵权主体之间共同性的判定。

对多个侵权主体之间的“共同性”判断是影响共同侵权构成的重中之重,在算法侵权的语境下,就是需要证明算法开发者与算法使用者对算法模型的设计目的、算法决策有共同认识,或者对算法决策造成的结果应当共同尽到合理的注意而没有注意。

如前文所提到运用在公共安全领域和司法实践中的算法,这些算法模型的设计初衷是为了满足社会需求、促进商业发展等合法目的,并不存在共同故意的情况。

尽管共同过错包括共同过失的情况,但是这也加重了受侵权人的举证责任。

因此,为了能够更好保护受到算法决策相对人的合法权益,算法决策的共同侵权行为只要数个侵权主体基于一致的意思而行事,且在客观上有共同的侵权行为,就应当承担共同侵权责任。

(3)损害事实算法决策可能会造成对人格权和身份权的损害,比如美国航空公司一名飞机驾驶员就由于算法多次错误地判定他是一名爱尔兰共和军领导人,使得他在机场遭到高达80多次的拘禁,该名飞机驾驶员的人格权受到了算法决策的侵害。

算法决策的歧视性对自由、平等、尊重等利益的无形人格利益损害是算法侵权的重灾区。

在司法实践中,受侵害人一般需要承担证明损害结果的发生、大小、程度等要素的举证责任。

在算法侵权中,损害后果可能只是表现为对受侵害人造成了不同程度的精神负担和心理忧虑,可是这些精神损害在引起一系列身体疾病之前是很难被证明的。

这不仅仅是算法侵权损害确定中的问题,也是证明具体人格权被侵害的举证难题。

英美侵权法对此有一个特色的制度设计,只要对这类权益有侵害事实,受侵害人就有权请求侵权主体承担侵权责任。

它们将这种类型的损害事实称为可诉性损害(damage per se),可诉性制度减轻了算法侵权中受侵害人的举证责任难度,可以加大对算法侵权的权益保护的力度。

(4)因果关系在算法侵权的语境下,一般因果关系比较难以确定,算法侵权主体往往存在数个,算法自动化决策具有不透明性,因此算法侵权具有相当的隐蔽性,甚至许多算法决策利害关系人不知道算法侵权的存在,因此也难以判断其因果关系。

为了明确算法侵权责任中的因果关系,可以考虑在某些权利保护领域内,对其适用违反作为义务的因果关系。

例如算法开发者或者算法应用者因为先前的行为产生作为义务或者因为平台责任负有积极作为的安全保障义务,那么其不作为的侵害事实与损害结果存在因果关系。

综上所述,侵权主体义务范围的界定、具体侵权主体的认定、适用可诉性制度、因果关系的判断都需要建立在算法自动化决策的透明性和可解释性的基础之上,而这都需要围绕算法的技术性展开立法。

然而,我国无论是对算法技术的强制性标准,还是算法侵权责任都无专门规定,更不具有体系性。

司法实践中,只能根据其他分散在各个部门法中所涉及算法的条款予以适用,但特别规则多,普遍规则少。

算法侵权责任相关法规的碎片化使规则的适用产生不确定性,规则适用又缺乏弹性。

四、结语因此在当今算法时代,法律应当对算法侵害行为造成的权利损害提供更加完备救济依据,充分认识到传统侵权法在认定算法侵权责任方面的可行性和不足,关注算法的模型设计、使用目的、投入应用、做出决策的每一个环节可能引发的风险。

本论文主要分析了侵权法对算法侵害权益的救济可行性,当然这仅仅是对算法侵权具体归责制度的投砾引珠,更多的法律框架和具体制度的设计仍待学者进一步探究。

参考文献[1] [美]凯西·奥尼尔.算法霸权:数学杀伤性武器的威胁[M].中信出版集团,2018.[2] 王利明.侵权责任法研究(上卷)[M].中国人民大学出版社,2010.[3] 王泽鉴.民法学说与判例研究(第二册)[M].中国政法大学出版社,2009.[4] 郑戈.算法的法律与法律的算法[M].中国法律评论,2018.[5] 孙政伟.大数据时代侵权责任法的基本功能与制度安排[M].吉林大学,2017.[6] Yuxi Li,deep reinforcement learningar,Xiv:1810.06339v1 [cs.LG] 15 Oct 2018.[7] Anupam Chander,The Racist Algorithm,115 Mich.L.Rev.1023(2016).[8] Pasquale F.The black box society: The secret algorithms that control money and information.Harvard University Press,2015.作者簡介:李思颍(1994- ),女,硕士研究生,研究方向:民法。

相关文档
最新文档