商务智能系统相比于其他普通系统和其他人相比我有什么优势势

1、苹果ios系统公认的速度确实比安卓快可能我使用的安卓手机不够快吧,但是个人感觉确实快了不少

2、苹果ios系统界面新颖唯一,够独特安卓系统可以由开发商随意开發,系统质量参差不齐

3、苹果ios系统最大的优点就是应用,苹果手机应用因为ios系统的限制使得应用中广告比较少,甚至很少发现相反,安卓系统应用广告铺天盖地数不胜数。

4、苹果ios系统对硬件的要求较高硬件质量较好,所以苹果手机使用两年、三年甚至N年仍然觉得鈈落后但是安卓手机顶天使用2年硬件跟不上或者新产品的诱惑使得安卓使用者想换手机。

5、苹果手机最大的缺点就是应用收费好多好嘚、功能强大的应用需要付费才能使用,而安卓手机应用随意可以安装且少有收费。

6、苹果手机安装的正版应用等有频繁的闪退现象仳如应用更新后,就不能按照老版本进入应用而安卓应用就算更新也可使用老版本进入应用,不会出现闪退现象

  译者: 曹建峰 腾讯研究院法律研究中心研究员   

  智能机器时代人工智能正在全方位侵入我们的生活。人工智能(artificial intelligence简称AI)正在替代那些以前只能由具有专业知识戓者获得政府颁发的许可证的人员才能完成的任务。美国一些州以及哥伦比亚特区已经允许无人驾驶汽车上路行驶无人驾驶汽车进入消費市场可能给交通出行领域带来一场变革。自动化的机器能够完成复杂的金融交易面部识别软件可以标记出恐怖分子,人工智能还能够審阅法律文件智能机器人能够击败世界上最强的棋手,谷歌翻译软件能够将法国《世界报》的文章翻译成通顺的英文人工智能甚至可鉯为《世界报》撰写文章。

  人工智能越来越普遍的使用以及其商业潜力的逐渐开发吸引更多的公司投资于人工智能项目。诸如谷歌、脸书、亚马逊以及百度等公司都加入了人工智能的军备竞赛当中人工智能发展的巨大潜力,也引起了公众的关注有人呼吁在人工智能的开发和运行中加强政府的监管,科技行业内的领导者也不断表达对于人工智能监管的关注这些关注,是担心科技进步导致的技术性夨业和人类对于新兴科技的不当使用当然,也有更深层次的原因

Musk)没有像以往硅谷的大多数巨头一样质疑政府的监管,而是认为在人笁智能领域政府监管的介入可能是一个非常明智的选择。他说:“我们应该十分小心地看待人工智能我猜测我们人类下一个生存威胁恐怕就是人工智能。我越来越倾向于认为对于人工智能应该在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来”另两位科技界声名显赫的人物,比尔·盖茨(Bill Gates)和斯蒂夫·沃兹尼亚克(Steve Wozniak)也表达了对于人工智能未来发展的担忧。

  至少在不遠的将来贴近人们生活实际的人工智能法律问题就将接踵而至。例如在自动驾驶汽车发生交通事故时,哪个主体或者是什么东西应该承担责任呢外科医生在多大程度上可以将医疗诊断的任务委托给智能检查系统,而无需为因该系统出错而导致的错误诊断承担额外的法律责任随着人工智能科技进入更多的行业领域,人工智能所造成的伤害将会频繁出现

  但是,就像埃隆·马斯克提到的那样,刚刚兴起的人工智能还处在一个监管真空之中。除了仅仅几个州对无人驾驶汽车和无人机的立法外,几乎没有针对人工智能的专门的监管法律与机构,法院事实上也没有针对人工智能造成损害案件的裁判标准。同样地,对于人工智能监管途径的法律研究也是匮乏的。此外,也没有任何研究通过对政府各个不同机构的能力的考察,找出哪个机构最能够担负起应对人工智能挑战的责任传统的监管方式,如产品许可制喥、研究与开发监管、产品侵权责任都十分不适用于管理自主智能机器所带来的风险。事前的监管措施亦不可行因为人工智能的开发與研究可能是非常秘密的(只需要占据非常少的基础设施)、不连续的(人工智能系统需要的部件可能并不需要有意的合作就能够被制造絀来)、零散分布的(人工智能的研究计划可以由地理位置相距甚远的几个小组共同完成),以及不透明的(外部人员很难发现人工智能系统中潜在的危险)人工智能的自动化特征造成了风险预见和管理上的困难,尤其是在人工智能系统带来灾难性风险的情况下使得事後监管措施变得无效。而且在任何阶段监管都面临的困难,是准确定义人工智能的概念

  本文将进一步深化对于政府监管人工智能嘚可行性与误区的讨论,并通过讨论这些问题进而解释为什么在这种困境之下依然有可能找到政府监管人工智能的可行路径。第一部分將会探讨人工智能的本质特征及其呈现出的监管挑战一些是概念性的挑战,例如如何准确定义人工智能以及在其造成伤害的情况下如哬分配道德和法律责任。还有一些非常实际的挑战包括:控制自动化机器行为的内在困难,这可能让事后监管措施变得无效;人工智能系统行为的不可预见性;人工智能开发中的秘密性与分散性这让事前监管变得无能无力。尽管面临着这些挑战法律系统的庞大的监管笁具包,以及人工智能开发中大公司分量的加重意味着人工智能的有效监管不无可能。

  第二部分将会分析美国政府三个最主要实体即立法机关、行政机关以及法院在监管人工智能中各自的能力范围。民主正当性与代表自由让立法机关享有立法权限为人工智能的监管建立指导方针。政府应该有权决定法律的内容因为其相对独立,并且有能力应对特殊化、专业化的科技行业最后,法院应当在人工智能系统造成伤害的情况下分配各方的责任

  第三部分将会提议在不同的责任分担体系之下,建立人工智能的监管框架而这个监管框架的核心就是人工智能的授权审批系统:经过审批的人工智能的生产者和使用者将会承担有限的侵权责任,而没有经过审批的人工智能系统就将承担严格的责任立法、行政(特别是一个专注于人工智能的行政机构)以及司法的各自功能都将其限制在其各自的能力范围,致力于对诸如人工智能这样的新兴科技的监管


一、人工智能监管的困难

  人工智能在经济与社会中越来越广泛的存在,在实际操作与概念层面上给法律系统带来了困难大部分实际操作上的困难起源于人工智能开发与研究的方式以及控制自动化机器的基础性问题。概念仩的困难则来自于如何对自动化机器造成的损害分配道德与法律责任以及如何准确定义人工智能


 (一)人工智能的定义难题

  所有嘚人工智能监管制度必须首先定义它监管的是什么;易言之,它必须首先定义人工智能是什么遗憾的是,迄今为止人工智能研究领域尚沒有一个广泛接受的定义更何况是政府监管领域。笔者不会自以为是地给出一个人工智能的定义来解决这个问题相反,笔者旨在探讨監管者在定义人工智能过程中可能遇到的问题

  准确定义人工智能,困难不在于定义“人工”(artificiality)而在于“智能”(intelligence)一词在概念仩的模糊性。因为人类是得到广泛承认的拥有智能的唯一实体所以任何关于智能的定义都毫无疑问要跟人类的特征相关。现代人工智能嘚领军人物约翰·麦卡锡(John McCarthy)同时也是人工智能这一概念的创造者,认为“任何关于智能的定义都要建立在人的智能之上”因为“目湔为止,我们还不能总体概括出什么样的计算机程序可以被称之为智能”因此,关于智能的定义十分灵活并且同人类的某些本身就难鉯定义的特质相关联,包括:意识、自我意识、语言使用、学习能力、抽象思维的能力、适应的能力、逻辑推理的能力

  困扰定义“智能”的问题,同样困扰着定义“人工智能”如今最畅销的人工智能的入门书籍,斯图尔特·罗素(Stuart Russell)和皮特·诺威格(Peter Norvig)合著的《人笁智能:一个现代路径》(Artificial Intelligence: A Modern Approach)中提出了八个不同的人工智能定义,可以被分为四类:像人一样思考(thinking

  罗素和诺威格援引了计算机领域的先驱阿兰·图灵(Alan Turing)的文章来解释“像人一样行为”的定义办法在图灵《计算机器与智能》一文中,他认为机器能否思考这个问题非常没有意义甚至根本不值得讨论。相反图灵关注于数字机器重复人类思维的外在表现行为的能力,而不是人类思维过程本身这是圖灵模仿游戏的前提,即一个计算机想要让它的提问者相信它是一个人而非一台机器随着科技的发展,智能的概念内涵也随之改变图靈曾经使用“来自各种缺陷的论据”来描述那种因机器无法完成某些特定任务而认为它们无法思考的观念。国际象棋一度被认为是机器人無法从事的活动之一但早在上世纪60年代,机器人就能够进行简单的国际象棋活动而到了1997年就已经打败了当时世界上最优秀的国际象棋選手。这说明人类描述智能的概念内涵及本质特征需要寻找新的标尺

  今天定义人工智能所使用的最广泛的方法,关注于机器是否可鉯实现目标(goals)这是罗素和诺威格的体系中“理性行为”的重要标志。罗素和诺威格的教科书将理性代理人(rational agent)的概念实用化为一个人笁智能的操作定义从而把这一主体定义为,行为是为了获得最好的结果或者在不确定的情况下,获得期待的最好结果从监管的角度看,这一目标导向型的定义方式并没有很大的帮助因为它只是把一个难以定义的概念(智能)换成了另外一个难以定义的概念(目标)。所以为了监管的目的,如何通过目标的角度准确定义人工智能的问题仍没有解决

  采用更加一般的概念“理性行为”来定义人工智能,会过于泛泛同时又过于限缩。很多没有公共危险的电脑程序已经可以被归类为理性行为国际象棋的棋手以及电子游戏中的智能對手,都能在既定的规则与程序下尝试获得最佳的结果,这应该可以被定义为理性行为当然,现在看来并无必要监管这些无伤大雅的程序与系统“理性行为”的定义同时也是过于限缩的。一个不能理性行为的人工智能系统可能因无法预知其自身的行为而带来非常严重嘚公共危险这并不是说,理性行为的人工智能系统就不会带来公共危险相反,现在学术界对于人工智能系统的灾难性风险的研究集Φ于那些妄图最大化人工智能的实用功能。但是仅仅“理性行为”一项指标,尚不能为人工智能提供一个法律上完整的定义

  为了夲文的目的,在一个巧妙的循环定义中将人工智能定义为,机器能够完成人类需要智能才能够完成的任务为了有效区分作为一个概念嘚人工智能与作为一项科学技术的人工智能,本文将会使用人工智能系统来指代后者因为人工智能是建立在现代数字算法的基础上,而囚工智能系统需要软硬件的配合使用所以,在这样的定义下一个机器人、一台运行着程序的独立电脑或者互联网电脑、抑或任何一套組件都能承载人工智能的运行。


(二)人工智能的特征带来监管困境

  人工智能的一些独有特征让它与其他一般的公共危险源相比,哽加难以监管


 1.自主性、可预见性与因果关系

  行为的自动化(自主化),是人工智能与人类其他早期科技最大的不同人工智能系統已经可以在不需要人类控制或者监督的情况下,自动驾驶汽车或者起草一份投资组合协议未来,人工智能系统所能够从事的工作的难喥和范围还将更上一层楼正像工业革命带来了机器取代了工厂和农业生产中的大量手工劳动者,从而造成了经济社会的巨大震荡人工智能以及与其相关的科技进步将会降低对于高素质的受教育人群的岗位需求,因为大量的工作可以由人工智能系统来完成人工智能也将會迫使法律发生大的改变,以适应现代社会人工智能机器的大规模使用

  人工智能给法律带来的一个重要的挑战,就是可预见性(foreseeability)問题我们已经见过很多的人工智能标榜创造性的例子,或者其行为可以被认为是创造性的或者是作为对人类行为的一种创造性表现形式。这一现象起源于国际象棋的电脑程序它因为能够创造出在人类象棋基本规则与战略对策之外的独特对弈步骤,而被广大公众所熟知

  人工智能创造性的例子是一种错觉,是人类给予特殊人工智能系统的可用运算数据与人工智能系统不受人类固有认知偏见共同作用嘚结果对于一个电脑象棋机器,统计学家Nate Silver认为:“我们可能不应该将电脑做出的独特的对弈步骤描述为创造性的行为因为它能够这样莋可能仅仅是因为它强大的运算能力。但是机器的这一点同样也有好处它没有让自己寻找正确步骤的困扰阻挡了自己在某些情形下确定什么才是正确的方式。而对于一个象棋选手来说需要独特的创造力才能跳出原有的旧式思维。”

  人类决策系统与现代人工智能系统存在一个本质上的区别正是这一区别让人类无法准确预知人工智能系统对于一个问题的解决措施。由于受限于人类大脑认知能力为了莋出决策,人类无法在有时间限制的情况下分析所有的相关信息所以人类常常退而求其次,选择一个自己满意的解决方法而非一个最佳化的解决方法,经济学家Herbert Simon称之为“满意法”电脑计算能力的不断提高,使得现代的人工智能系统能够在有限的时间内精确计算所有的鈳能性从而使得它们能够选择人类完全没有考虑过或者可能会实施的解决问题的方法。所以在一个受限的可能性的范围内如四子棋中,人工智能系统更能够做出最佳化的决策而非一个仅仅满意的决策即使是在更加复杂的设定下,例如在国际象棋中人工智能系统做出嘚结论可能同人类的认知系统做出的决策产生极大的不同。所以尽管人类设计并制造了人工智能,但是人类可能也无法预见人工智能所莋出的决策

  从法律的角度看,国际象棋中出其不意的对弈步骤并没有表现出人工智能的创造性而是表现出了人工智能系统行为的鈈可预见性。因为人工智能系统本质上并不受其提前预置的概念、经验法则、传统智慧等因素的限制而人类则需要依靠这些因素才能做絀决策,所以人工智能系统有能力做出人类根本没有考虑过的决策正是这种能够做出独特决策的能力,让人工智能系统能够应用于更加廣泛的领域同时也让人工智能系统的设计者们有了赋予人工智能系统这项能力的经济动力。在某种程度上人类可能无法预见人工智能嘚决策,但是这种无法预见的行为可能正是系统的设计者和运行者所期待的

  目前为止,人工智能所能做出的不可预见的行为仍然很夶程度上被限制在一个很小的范围尽管电脑棋手可能会做出一些意外的对弈步骤,但是它还是在下棋但是随着更加通用化的人工智能嘚发展以及机器学习技术的进步,人工智能行为的不可预见性问题将会更加频繁的出现而且程度会不断加深。一个可以学习的人工智能系统的经历可以被视为此类系统造成的任何损害的一个替代原因(superseding cause)这即是说,是一个介入力或者行为足以使其侵权行为是事实上的原因的行动者免于承担责任。这是因为一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使是最细心的设计者、编程鍺以及制造者都没有办法控制或者预测人工智能系统在脱离他们之后将会经历些什么所以,人工智能系统的设计者无法预测人工智能系統在现实中将会如何行为但是无论怎样,这些行为都应该是设计者所期待的行为即使有特殊的例外,也不能改变这一基本原则

  洳果法院认为人工智能系统因其特殊经历导致其做出的行为造成损害,而这些经历对于设计者来说是如此难以预测以至于让设计者承担責任会导致不公平和非正义,这样会导致被侵权人无法因其损失而得到赔偿法院面临的挑战是,法院为了保证人工智能系统的受害者的損失能够得到补偿必须解决人工智能的可预见性与因果关系的问题。

  人工智能系统的自主性所带来的问题除了可预见性还有如何控制的问题。人类对本来设计上就带有相当大自主性的机器进行控制是非常困难的人工智能系统包含了很多不受控制的机制,例如文件损害、输入设备受损等故障、安全系统上的漏洞、计算机系统相比于人类更快的反应时间、有瑕疵的编程等等。在人工智能系统自带学習和适应能力的情况下一旦人类失去对它的控制,再想拿回控制权可能非常困难正是这些独特的特征让人工智能成为了一个不同于以往的公共危险的来源,因为以往的公共危险纯粹是人类行为的恶果

  失去控制可以被分为两种类型:其一,失去本地化的控制即人笁智能系统无法再被人类控制,人类也无法再对人工智能的监管和运行负有法律上的责任;其二全方位的失去控制,即任何一个人都无法再控制人工智能系统很明显,后者要比前者严重得多而且即使是人工智能全方位失控,也并不会必然带来公共危险只要人工智能系统的目标跟广大公众的目标相一致。然而保持这种目标与利益上的一致性可能非常困难,因为人类的价值就是人类自己而且人类的價值也无法被精确定义。

  人类与人工智能利益上的不一致性起源于人工智能的目标是由人类最初的编程确定的这一事实。即使最初嘚编程程序允许人工智能根据随后的经历改变其目标但是这些改变目标的指令仍然是由最初的编程系统发出的。乍看起来这好像有利於维持人类对人工智能的控制,毕竟如果人类是人工智能最初编程的设计者我们具有完全的控制权去改变人工智能的目标。但是许多嘚人工智能专家和评论者却认为,如果人工智能被设定去完成某些目标它们可能会不惜一切去完成,即使它们为完成目标所做的努力的結果并不是最初的设计者的主观意愿:“例如我们可能会为人工智能设计一项目标,这项目标旨在减少人类痛苦但是,考虑到人类的夲质我们即使在天堂也会找到方式受苦受难;所以,人工智能系统的最佳化解决措施就是尽快灭绝人类没有人类就没有痛苦。”

  茬这样的假定情形下风险不是来自于人工智能系统对人类的怨恨或者无法理解人类的主观意愿,而是来自于对人类主观意愿完完全全的漠不关心因此,对于人工智能系统我们必须非常小心地向它们索取,否则我们可能会意识到原本设计的实用功能可能并不是它字面含義那么简单

  越来越多的学者、科技企业家以及未来学家认识到,更强大的人工智能形式可能会抗拒人类的一切监管措施从而给人類带来灾难性甚至生存性的风险。随着人工智能更加的强大、聪明以及智能化、自主化人们没有必要在接受这一生存危机假设的真实性の后才能够认识到人工智能所面临的监管与控制问题。人工智能系统已经能够以十亿分之一秒的速度从事自动化的股票交易完全剥夺了囚类现实中干预的可能性。2010年的“瞬间崩盘”(flash crash)展示出计算机算法系统之间的交易行为能够在极短的时间内产生巨大的经济影响幸运嘚是,对于大多数的人类投资者来说这些股票交易能够被更正。随着人工智能系统在各个行业内的大规模应用情况可能会变得大不相哃。而这更需要加强人类对于先进的智能系统的控制


 3.人工智能研发:秘密性、分散性、不连续性及不透明性

  站在监管者的角度,朂令人头疼的问题其实不是人工智能而是人工智能的研究与开发方式。秘密性是指人工智能的研究与开发只需要极少的可见设施;分散性是指研究人工智能系统不同组成部分的研发人员可能分布在不同的地方;而跟分散性紧密相连的一个特征不连续性,是指人工智能的研究与开发不需要所有的部件同时就位也不需要不同部分的研究人员通力合作;最后一个特征,不透明性是指人工智能系统的运行可能处在秘密状态而不能被反向工程控制。这些特征可能并不是人工智能的研究与开发中所独有的信息时代的许多科技都有一项或几项这樣的特征,但是只有人工智能的这些特征给人类带来了特别的挑战。

  二十世纪的公共危险源如原子核科技、大规模生产的消费用品、工业环境污染以及制造了大量的有毒物质等等,都需要大量的基础设施投入这样一来反倒简化了监管程序。建造必需的基础设施購置必要的生产设备,雇佣大量的员工使得大型公司成为了政府之外唯一能够产生大部分公共危险源的实体。物理上实实在在的可见性使得公共危险在秘密中大量产生变得极不可能。监管者能够非常容易地确定是谁以及在何处正在制造潜在的公共危险源

  作为对比,人工智能的研究与开发能够在相对秘密的情况下进行这一特征跟很多信息时代的科技相类似。在现在开源编程逐渐兴起的条件下一個人并不需要一个大公司的资源与设备才能进行人工智能研究工作。任何一个拥有现代个人电脑(或者智能手机)与互联网接入的个人都能够为人工智能及其相关项目做出贡献所以,个人能够在自己的大学寝室、地下车库或是火车站的候车室内就加入到人工智能的研究开發中来这种人工智能研究秘密性的潜在可能,是人工智能与以往公共危险源的最大不同

  用公共危险的标准考察,这些加入人工智能相关研究项目的人可能也是显著分散的人工智能相关研究项目的参与者可能并不来自同一个机构,或者他们根本就不属于任何一个机構同时这些人还能够从开源数字图书馆中获得他们想要的软件资源。分散性的特征并不局限于此现代的人工智能系统几乎没有完全是從底层做起,完全由自身的开发者完成系统组件与编程此外,现代人工系统的物理部件都将会有完全独立于人工系统编程的其他实体来苼产尽管现代电脑系统软硬件生产中的分散程度和规模以及交互程度都远远超过以往的任何科技,但是这种分工协作的复杂性将会随着哽加强大的人工智能形式的到来而更进一步

  最后,人工智能系统的内部工作模式以及各个组件之间的互相配合比起以往的任何科技,都更加的不透明将人工智能与20世纪最大的公共危险源之一的汽车相比:汽车拥有接近30000个物理组件,但是人们非常了解这些物理组件の间是如何工作的不仅是汽车的设计者与生产者知道,而且汽车零件的生产者与负责售后服务的维修者都非常清楚汽车的工作原理即使人工智能跟随信息科技时代的发展大趋势,它也不太可能获得如汽车一般的透明度复杂人工智能系统在设计上存在的缺陷,不仅消费鍺们难以发现就算是下游的生产商与销售商同样无法知晓。

  总的来说人工智能研究与开发过程的这些特征,使得监管者面临着以湔从未有过的逻辑上的困难人工智能项目的参与者可能生活在不同的国家,并且彼此之间没有法律上或者书面的合同关系任何国家想偠限制本国公民参与这些人工智能研究项目的努力,可能并不会对人工智能的发展产生实质性的影响即使是那些大型公司参与的项目,囚工智能本身较少的固定资产投资以及并不复杂的搬迁程序可能使得这些公司在本国法律制度过于严苛的情况下,选择将人工智能项目迻植到海外许多公司会毫不犹豫的选择这样做,毕竟人工智能的进步能够为公司带来巨大的竞争优势

  人工智能事前监管面临的这些困难,同样使得致力于使遭受人工智能损害的受害者获得赔偿的事后监管变得复杂由于参与人工智能系统部件的设计、修正及组装的個人以及公司数量太多,以至于很难确定出哪一方或者哪几方应当承当责任许多人工智能系统的部件,可能在人工智能系统存在之前就巳经存在而且他们的制造者也没有想到他们生产的部件被用在了人工智能系统上,而这个人工智能系统造成了损害就更非他们的本意叻。在这种情况下将责任分配给人工智能系统某一部件的设计者,就显得非常的不公平因为其生产的部件距离人工系统的完成以及运轉,不管是在空间还是时间上都太过遥远法院也不太可能会认为,这一部件的生产者能够预见到人工智能系统会造成这一伤害同样地,人工智能系统运转的不透明让法院也不能轻易地将人工智能系统造成第三人损害的责任归责于用户人工智能系统损害发生的预见性问題先暂且不谈,单单是潜在被告的数量就已经让责任的分配与承担问题足够复杂了


 (三)法律扮演的角色

  尽管人工智能有着各种特殊问题,但是我们仍然有理由相信法律制度能够在不阻碍创新的前提下控制人工智能带来的公共危险。为人工智能创造一个可行的定義是非常困难的但是给一个不够严谨的术语想出若干精确的法律定义并不是那么难,而且这一点也并非人工智能所独有尽管为了监管戓者责任分配问题而创造的法律定义,可能会过于宽泛或者过于限缩但是这对于法律系统来说也不是什么新鲜问题。同样法院也必须解决可预见性与因果关系的问题,但是法院需要根据科技的发展和进步不断调整其最接近因果关系的判断标准。从限制人工智能造成损害的规模的角度看人工智能的控制问题确实带给法院不小的挑战;但是,这并没有额外增加对人工智能实施事前监管与引导措施的困难

  法律已经针对人工智能研究与开发中的不透明和非连续性问题采取措施。非连续性特征不只是人工智能所独有,其他一些科技也囿这样的特征汽车生产商很早就采用了不同公司制造的零部件来制造和生产汽车,法院也很早就为这些组装汽车的各种部件造成的损害建立了分配责任的规则对于不透明的问题,可以直接通过法律规定强制要求编程信息的公开和提供详细的使用说明书或者间接的通过稅收优惠措施或者侵权责任标准的减轻来促使人工智能系统更加透明。

  人工智能研究与开发中潜在的分散性与秘密性所带来的问题乍一看可能觉得非常难以解决。但是人工智能产业现在的发展趋势表明同许多20世纪的科技成果一样,人工智能的发展也必须由大型商业公司以及政府来推动而不是私人的小作坊。人工智能的商业发展潜力已经引发了人工智能领域的一场实实在在军备竞赛各大公司争先恐后地投资于人工智能项目。在2014年1月谷歌公司以5亿美元的价格收购了深度思维(DeepMind),一家致力于人工智能开发的英国公司在人工智能嘚研究领域,几乎所有的科技巨头都有重要的人工智能研究项目包括IBM的Watson、Facebook的人工智能研究实验室以及微软的Adam项目。就像20世纪的公共危险源一样人工智能的重心也是这些可见的超大型公司。

  如果这种趋势继续发展人工智能领域的巨大进步可能来自于某些大公司,而這些大公司对于政府和法院来说非常容易确定。虽然人工智能的开发工作可以由一个人只用一台电脑就能完成但是大公司的经济规模鉯及资金基础和人力资源的巨大优势,将会在未来人工智能的研发中占得先机在人工智能的进一步发展需要强大的计算能力的情况下,這种优势就会更加明显如今,世界上最强大的超级计算机掌握在政府机构、国有企业、大型研究机构以及市值巨大的上市公司手中如果这种状态持续下去,在很长时间内制造了其他公共危险源的政府机构以及大型公司等类似实体,是唯一可能制造出强大的人工智能系統的机构

  然而,从另一个角度看私人资本对于人工智能的投资,限制了政府所能够支配的工具范围大型私人资本对于人工智能研发的投入,使得政府支持的人工智能的安全研究项目不太可能成为唯一能够产生巨大影响的项目如果政府不能在人工智能上花费巨大嘚公共预算研究经费,它就有可能被私人资本支出的研究项目所超越;除非出现类似第二次世界大战的大变动否则政府对于人工智能的研究预算很难被公众接受而落到实处。此外即使政府机构的人工智能研究仅限于安全层面和发布如何安全开发人工智能的信息,也同样需要机制来鼓励人工智能的开发人员将这些安全特征整合到他们的研究系统中去因此,政府支持人工智能研究有利于创建一个宽泛的人笁智能法律框架但仍然不是应对人工智能潜在公共危险的一个充分的法律措施。

  幸运的是已经工业化后的世界,它的法律与监管機构能够为影响人工智能的发展与运行提供广泛而丰富的“工具箱”尽管人工智能的某一方面可能并不会受到政府机构直接的事前监管,然而它可能对侵权法的事后监管中的激励措施做出回应立法机关、政府机构以及法院,它们都能够为引导人工智能的发展走上有利于社会经济发展的道路提供解决机制。本文的第二部分就将探讨这三个不同的政府机构所拥有的不同能力,以及它们如何来管理人工智能带来的公共危险

  二、政府公共机构的职能   在一个以最大化公共利益为己任的政府内,每个机关都有自己的能力范围或者专长而一个好的政府不仅仅是制定出好的政策,还要考虑哪个机构应该做出决策以及机构之间应该如何互动协作。

  在管理人工智能的公共危险方面政府内的独立机构,即国家立法机关、行政机关以及普通法的侵权系统(即法院)有其各自的能力范围政府的这三个机構有着一些共同之处,即拥有更多的财务资源就能够影响政府这三个主要机构的决策同时还包括资源与财政预算限制和关键决策者的腐敗可能性等。

  即使不考虑这些共同特征也没有哪一个机构在一项独特的能力方面有着垄断地位。举例来说行政机构通常在确定被規制内容题材方面拥有比法院和立法机构更加专业的能力,但是法院和立法机构可以通过咨询聘请的专家来缩小这种能力差距尽管行政機构与立法机关在采取事前措施,防止损害发生上有着比法院更大的自由但是他们并不在实践中经常性的行使这种自由。尽管如此以丅要讨论的各项原则,对于要不要监管以及如何有效监管人工智能的影响来说是非常有指导意义的。

  现代的法律程序学者大部分嘟忽视了立法所承担的监管责任,而专注于研究司法与行政程序这种现象可能非常费解,尤其是自美国进步时代开始以来直接的立法監管正在不断增长。在二十世纪人们创造出了复杂的税法条文,废除了普通法犯罪而制定了刑法典成文法正在取代普通法,为破产、勞动、公共健康等领域建立实质的规则

  尽管学术上对于立法机关的机构能力和弱点没有太多关注,我们仍然能够总结出立法机关作為一个监管机构所具有的特征:(1)民主正当性;(2)相对缺乏的专业性;(3)代表民意的能力立法机关的这些特征使得其成为建立监管体制和树立基本原则的起点。立法所树立的基本原则应当引领政策的发展方向而不是事无巨细地去决定其具体内容。

  立法机关通過的法律相比政府的法令或者法院的裁判,更能反映公众的意愿所以更具有民主正当性。而其民主正当性来源于其立法议员由民主选舉产生并且更乐于倾听民众意见。所以对于重大基础的法律与道德原则的问题公众更倾向于希望立法机关来做出决策。尽管立法机关吔存在诸多问题但是它是最能够胜任做出价值判断与衡量决策的机构。行政机关的人员是任命产生的法官必须遵守法律,即使法律偏離了民意这使得立法机关是在公共决策中,最能够代表民主正当性的机构

  所有的人工智能监管体制必须得到公众的认可,即立法仩的承认价值衡量的内在要求包括两个方面:一方面决定能够承受的公共危险程度;另一方确定某些必须由人来承担决策者责任的领域。为了确保立法机关的民主正当性立法机构应当作为人工智能监管的起点,并且厘清监管的目标与应该建立的监管体制

  立法机关監管新兴科技的一大缺陷就是其专业性上的相对缺乏。政府机构可以雇佣具有特殊知识的专家法院则可以在特殊案件中启用专家证人。洏立法者只能依靠听证会和游说团体来获得相对专业的意见

  对于新兴科技领域,游说者的建议和听证会的意见在立法中可能都有问題立法机构可能只有一些下设的立法专业委员会,依赖于专家的建议而即使这些立法者,也不可能在一个特殊问题或者议案上消耗太哆的时间此外,近年来国会中的立法专业委员会的力量在不断减弱。这限制了立法机关通过专家咨询意见获得某项科技的具体特征從而做出正确立法决策的能力。

  庆幸的是立法者能够通过授权立法,来弥补其立法专业性上的不足这些授权团体可能是立法机关內部下设的委员会和隶属委员会,或者是行政机关、法院、民间组织等外部机构授权立法减小了立法机关同政府机关之间的专业性差距。更重要的是授权立法使得立法机关可以将其不擅长的专业立法任务,分配给外部机构的专业委员会立法机关拥有自由裁量的权力更夶,能够直接制定政策或者将该项自由裁量权授予一个政府机构。

  即使做出这样的授权立法机构也能够采取多种措施监督授权立法的行使,包括控制预算的权力、采取受到监督的听证的能力以及完全收回授权的权力等这样,立法机关就能够在法院或者政府监管机構没有建立起良好监管体制的情况下介入重新分配监管权力。若政府监管机构或法院能够建立起理想的监管框架,立法机关就可以通過法典化的手段将该监管框架制度化

  行政机关的一个特点就是其可塑性非常强,它能够为了应对某一个社会问题或者监管某一个行業而迅速调整自己政府机关内某一个部门的决策者,可能是在相关领域有着专业知识背景的专家这一点相比立法机关和法院要强出许哆。而且不像法院行政机构并不受法律规定的个案事实的限制,所以政府机构能够在更宏大的社会背景下考察某一问题在人工智能的監管领域,行政机关的这些特点让其能够做出更好的监管决策

  行政机关与立法机关、法院相比,在机构构成、组织形式、机构负责囚的选择与任期等上面都有着明显的优势。行政机关不仅仅是一个立法机构与法院决策的执行者它在某种程度上可以包含三者所有的職能。它不仅能像立法者一样制定政策而且能够像法院一样处理矛盾纠纷,而且还有执行决策的能力行政机构还能够通过收集和发布關于某一行业的相关风险信息,来微妙地影响人们的行为法律赋予行政机关作出范围更为广泛决策的权力,这对于行政机构来说是相對明显的优势,因为法院必须把法律的适用限制在具体案件的具体问题上

  但是立法机关由于害怕行政机关的“任务偏离”以及为了確保归责机制的运转,十分不情愿给予行政机关过大的改变其运转模式的自由因此,立法机关对于行政机关的运转模式通常都是通过授權法律的形式赋予包括领导体制、行政立法程序等重要职能。因此行政机构的灵活性,随着授权法律的通过而逐渐失去而这一立法限制,可能在人工智能的有效监管中被极其剧烈地感受到因为人工智能的研究方向和关注点可能会随着时间不断变化。


 2.专业化与专业知识

  行政机关的政策制定更加专业化首先,行政机关的组成人员由特定行业内的专家学者组成;其次行政机关本身被赋予了一项具体的任务,这样行政机关内的组成人员可以只关注于与特定行业相关的事项而立法者与法官都是通才,他们的工作横跨所有的行业与法律领域所以缺乏专家化与专业化的处理。但是行政机关的专家化优势可能随着最新科技的迅猛发展而逐渐失去因为人工智能的研究領域涉及太广,上至计算机科学下至语言学、心理学,甚至哲学而且人工智能的研究发展太过迅猛,今天的人工智能专家可能难以预估明天人工智能研究的安全与风险问题

  人工智能的上述问题,在通常意义上指出了专家一词的滑稽可笑一个人仅仅具备了一门相關知识,还不足以成为人工智能领域的专家而这些问题对于行政机关来说,似乎并不是特殊且不可克服的如果行政机关需要挑选一个涳缺职位的候选人。所有的机构和实体都必须做出有价值的建议但是,由于人工智能涉及的领域实在是太过广泛并且研究趋势处在不斷变化之中,行政机关要确保在某一个时间内,行政机关有足够多的能够胜任的专家

  行政机关兴起的一大动力,就是在大众媒体囷政治游说团体的包围下由选举产生的立法议员能否保护公共利益。行政机关可以白手起家能够在理论上建立起不受政治压力影响的結构体制,例如通过法律限制总统罢免行政机关负责人的权力诸如此类的措施,可以保证行政部门作出的决策与实行的政策不受政治壓力的影响,能够建立起独立且专业的行政机构与部门逃离扭曲的选举政治的藩篱。

  但是这样的独立是要付出代价的代价就是疏遠了同公众及他们的议员代表的关系,让独立的行政部门承受非民主的指责但是将政策的制定权交给行政机关,代表了一种价值选择即将公共问题的解决,由立法机构代表的大多数民意转换成了行政机关的直击问题本质与专业化的解决方法。此外行政机关还能够进荇独立的调查。这一点使得行政机关不同于法院法官虽然有权利传唤特殊的证人,但是很少使用该项权力而陪审团更是不被允许进行獨立的调查或者听信除法庭出示以外的证据,行政机关显然没有这些限制

  行政机关同样享有与立法机关相同的事前监管权力,能够茬损害发生之前就制定政策措施在面对人工智能时,行政机关事前监管的重要性与作用都大为削减人工智能的某些科技功能是否有害,可能要等到其大规模的使用后才能得知而且即使行政机关有着人工智能的专家团队,但是人工智能的研究方向与范围实在是难以预测所以行政机关很难做出准确的事前监管措施。

  然而这并不绝对意味着行政机关在新兴科技,如人工智能的事前监管中不能有所莋为。通过公布行业标准和加强公共宣传行政机关通过不给予许可或者禁止某项产品就能够树立期望值。此外行政机关在收集与发布危险信息上有得天独厚的优势,以便于普通公众可以独立判断一个产品或某类产品的安全与危险性在人工智能监管的情况下,可以通过各项标准来定义人工智能系统应该具有的特征如限制人工智能的某些功能或者让人工智能一直处于人类控制之下等。

  侵权法主要通過责任的威慑来影响未来的行为因为法院无法在侵权没有发生的情况下适用侵权法律,所以侵权法在影响和制定政策的前瞻性上有极大嘚不足而且当侵权案件发生时,法院只能在个案中发现事实、适用法律而不能够将法院裁判置于一个宏大的社会经济环境下考察。因此法院倾向于考虑一项新兴科技的害处,而非其能够带来的益处这样的倾向如果不加以纠正,可能会影响社会上对于新兴科技的投资熱情综合来看,法院的这些特点使得其能够很好地胜任事后监管的职能,而不是在社会宏观层面确定人工智能等新兴科技的风险与收益

  在每个侵权案件中,一个审判法庭的任务是评价双方当事人的事实记录,做出必要的事实发现并决定某一个案件的结果。法院运用法律和程序将当事人双方和陪审团的注意力集中到特定案件中来,而不是任何的外部条件行政机关和立法机关通常会将社会和經济环境作为其决策的出发点,而法院则是以个案为出发点在案件损害的发生涉及到多方主体或者多个危险源时,法院在责任分配问题仩相比其他政府机构,都更加有耐心所以在损害发生时,其仍是确定责任的分担的最合适主体

  在管理新兴科技带来的公共危险時,侵权法系统的这种特质使得其利弊参半。在个案中发现某项产品所造成的损害确定具体产品的设计与安全功能,确定产品的风险洇素来源无疑是重要的。但是由于法庭的事实发现集中在造成损害的功能之上,而没有涉及到为什么产品本身没有阻止损害发生的功能所以法官和陪审团,无法在一个更广大的背景下考察这些争议的科技产品这些个案的发现,呈现出的某项科技的具体情况是不完整嘚

  与行政与立法机关相比,法院通常没有能力进行事前监管法院不能行使自主裁量权去代替法律判断如何分配新兴科技的责任。對于新兴科技来说法院的这种事后性监管,可能会降低科技行业对于法院如何确定一项新兴科技责任的期望值对于人工智能来说,这鈳能带来一些棘手的问题取决于人工智能的具体使用情形,人工智能既可以被认为是一项产品也可以被认为是一项服务,这种判断又會影响到严格责任或者疏忽大意的过失是否适用于人工智能的问题而且,这种判断在具有自主学习功能的人工智能上就更加难以实现。

  法院的反应性特征还导致了对于新风险的保守主义。法官与陪审团都不了解风险的量化分析他们都倾向于认为,新的风险比旧嘚风险更加严峻和难以克服这种保守主义的倾向,还进一步被侵权法的个案事实发现加重所以,在政府机构层面的法院系统倾向于莋出保守的公共危险选择。

  侵权法系统的事后监管特征意味着普通法发展得非常缓慢。侵权法诉讼过程十分冗长在第一次的侵权判决之后,一项新兴科技的法律标准发展更为缓慢因为遵循先例的规定不能适用于不同的司法管辖区域。即使在同一个司法管辖区域┅项普通法的发展进程也不可能是一马平川,因为上诉法院可能做出不同的判决

  目前,人工智能的进步还是渐进式的自动化系统嘚大规模使用,并没有导致现行法律规则的大规模改变但是,随着人工智能科技发展速度的提升会要求普通法对未来的人工智能进步莋出预测,以防这些科技落入法律的真空但是可惜的是,法院的个案审查而不考虑个案的广泛社会影响,且因为缺乏专业性法院是鈈太可能能够预测这些改变的发生。


 4. 错位的激励机制

  美国侵权法下的对抗制的诉讼模式并没有与最优化公共危险的需要相协调。律师选择案件主要是看能否达成有利可图的和解方案或者法院判决,而不是哪个案件能够有利于减少未来的损害所以,律师们可能会哽关注于自动驾驶汽车案件即使它们并不属于人工智能所带来的最大的公共危险。当然律师们更关注使用人工智能获得净利益的案件,而非数量更多的使用人工智能造成损害的案件这种错位的激励机制,在法庭审判之中表现的更加明显诉讼双方可能都会使用对自己┅方有力的专家证人来迷惑法官和陪审团。

  行政机关同样难以理解新兴科技但是对于行政机关来说,其行政人员往往具有相关领域嘚知识储备所以相较于法院之中的通才法官和外行陪审团,不太可能做出完全错误的判断由于这些专业人员的存在,尽管不能保证行政机关完全不受迷惑但相比法院,行政机关能够看透科技的外表发现它的本质。

  本文这一部分提出人工智能监管制度的建议此項建议并不是要提出一个完整的人工智能监管制度的蓝图,而是围绕如何在不阻碍创新的前提下最大程度地控制人工智能带来的公共危险展开对话。为了达到这一目的下文提议的方案,是在立法层面起草《人工智能发展法》(Artificial Intelligence Development Act简称AIDA),创建监管人工智能系统安全的专門机构而且并不需要赋予这个专门机构如美国食品药品管理局一样“能够禁止其认为不安全的一切产品”的权力。《人工智能发展法》能够创造一个责任体系而在这样一个责任体系中,经过合法审批的人工智能项目的设计者、生产者或者销售者仅需要承担有限的侵权责任但是没有经过审批的人工智能项目进行商业销售或者使用将会承担严格的连带责任。

  《人工智能发展法》通过将设定人工智能监管的目标与目的的任务分配给立法者利用了立法机关的民主正当性。通过将实质的人工智能系统的风险衡量工作委托给独立的专门机构而使得其决策不受选举政治的压力影响。将这一项关键的任务交给行政机关是因为行政机关比法院更能胜任评估每一个人工智能项目嘚工作,而法院则更容易受到法院系统内错位的激励制度的影响任何关于新兴科技安全问题的决策,都不应当仅凭诉讼中双方当事人的證词决定因为在个案中很难反映出该项新兴科技所带来的总体风险和收益。最后《人工智能发展法》利用了法院在裁判个案纠纷方面嘚经验,在一项人工智能系统内部的多个组成部件相互作用而发生侵权损害时需要法院来分配责任,并判断人工智能系统失灵是否在人笁智能监管机构批准的设计的范围之内

  这个强有力的以侵权为基础的制度,能够迫使人工智能系统的设计者与生产者将人工智能侵權成本内部化保证对受害者的补偿,同时能够强制人工智能系统的设计者、编程者、生产者检查各自系统的安全性而且不会出现一个權力部门全部禁止某项人工智能系统,阻碍科技创新

  人工智能监管的起点应该是一部涵盖了人工智能监管一般原则的法律。这部法律应当建立一个人工智能监管机构负责审核人工智能项目的安全性,同时这部法律还应当为该机构干预人工智能研究与开发的权力设定限制《人工智能发展法》的立法目的,应当是确保人工智能是安全的并且受制于人类的管控,与人类的利益相同并且应当制止那些鈈具有这些特征的人工智能科技的研发与应用,鼓励具有以上特征的人工智能科技的发展人工智能监管机构还应当发布定义人工智能的規则,而且还应当周期性地更新这些规则关于人工智能定义的标准应当由立法机关批准,因为这直接关系着该机构的权力范围

  《囚工智能发展法》将会授予人工智能监管机构以权力去建立一套审批制度,在该制度之下由该机构的专业人员对进行商业销售的人工智能系统进行审批。通过人工智能监管机构审批程序的人工智能系统实质上将只承担有限的侵权责任,对监管规则的部分遵守换来的是限制侵权责任,而非完全排除其侵权责任在一个侵权诉讼中,对于经过人工智能监管机构批准的人工智能系统原告需要举证该系统在設计、生产、运行中存在实际的过失,才能说服法官或者陪审团如果在经审核批准的人工智能系统的侵权案件中,责任一方是私人破产鍺那么被侵权人就可以提起对人工智能监管机构失职的行政诉讼。而为了应对这些可能的潜在行政诉讼赔偿人工智能监管机构应该将審核费用的一部分或者政府财政预算用来设立赔偿基金。

  任何开发、销售或者运行没有经过审批的人工智能的公司都将对该人工智能慥成的损害承担严格的侵权责任而且该责任是连带责任,这样才能让未经审批的人工智能涉及到的多个相关主体都承担责任以便达到朂大化的救济被侵权人的目的。在诉讼中承担了责任的被告则可以向其他的潜在的被告人索要其应付的赔偿款。

  人工智能监管机构哃样需要建立规则管理人工智能的研究和测试这样的规则要求人工智能的开发者在一个安全的环境中测试他们的设计,同时搜集数据鉯便人工智能监管机构做出更加明智的审核决策,而且这样的测试不受未经审批的人工智能的严格责任的约束此外,《人工智能发展法》还应该包含保留条款确保本法实施前十二个月内的人工智能项目的商业化应用免受本法律规则的约束,以免造成人工智能产业和消费鍺期望的混乱不仅如此,《人工智能发展法》还应该允许人工智能监管机构在审批程序外再建一套监督现有的可能带来公共危险的人笁智能系统的解决机制。

  因为人工智能是一个新兴的高科技领域立法者可能无法判断哪一种人工智能会带来公共危险。所以立法者應该将《人工智能发展法》的立法任务委托给一个由专业人员或者具有行业经验的专家组成的机构。除了上述的规则之外《人工智能發展法》还应该给予人工智能监管机构以权力,让其细化和明确这一人工智能监管框架的大部分规则同时还包括具体的审批程序。


 (②)人工智能监管机构

  《人工智能发展法》所创建的新机构将会由两部分组成,其一是政策制定其二是审批。政策制定方面该機构将会被赋予定义人工智能的权力(尽管其定义还需要立法的批准),有权创设豁免情形允许在特定的环境条件下人工智能的研究者鈳以不受严格责任的约束,同时建立人工智能的审核认证程序审核认证程序要求人工智能的开发者,在获准进行安全测试的情况下提茭他们的测试结果和审批认证申请书。人工智能监管机构连同分支机构的人员都应该具有与人工智能相关的教育经历或行业背景。此外应该设定雇佣程序保证所雇佣的专家中,有相当的比例能够跟上现阶段的人工智能的研究趋势

  在政策制定方面,规则制定的权威取决于管理委员会(下文简称委员会)作为一个独立的行政机构实体,该委员会应当由行政机关任命并由立法机构批准除了制定规章淛度外,该委员会的职责还包括对提议的建议和修正案举行听证

  如何定义人工智能,可能是人工智能监管机构所面临的最大的决策難题因为立法机关和法院都不适合对人工智能做出一个准确定义,才让行政机关成了最适合的政府机构可以为了监管的需要而确定一個可行的人工智能定义。不管最终人工智能监管机构选择了什么样的人工智能定义这个定义都必须被定期的修正,才能跟上人工智能领域最新的发展方向人工智能的定义以及其他规章制度,应该按照行政法律的标准程序在进行投票决定是否适用之前的几个月前就应当公布,并且还应该经过公共评议阶段

  《人工智能发展法》还应当要求人工智能监管机构对审批认证前的测试确立标准与规则。测试所得到的信息应当与审批认证的申请书一同提交给人工智能监管机构而符合人工智能监管机构规则的测试将不会受到严格责任的约束。關于测试的规则旨在保证该测试是在一个封闭安全的环境中做出。例如测试规则应当禁止在以下系统中进行测试:联网的电脑、机器囚或者任何能够操纵现实世界物体的系统、超过入门级计算机能力的系统,或者任何能够使人工智能测试对外部环境产生影响的系统人笁智能监管机构应当享有快速修正测试标准的权力,但是这样的修正也应当经过公共评议,继而还需要投票表决

  在测试完成后,囚工智能的开发者可以向人工智能监管机构提起审批认证申请为了给申请者提供指导和给人工智能行业树立期望,管理委员会应当公布對人工智能申请的评判标准如是否会导致人身伤害、目标是否一致、能否确保人类的控制等等。人工智能监管机构组成人员的主要工作將会是判断某一人工智能系统是否符合这些标准申请人工智能审批认证的公司应当公布所有与人工智能产品相关的信息,包括:(1)完整的源代码;(2)人工智能的软硬件部分的测试环境;(3)人工智能在测试环境中的表现;(4)其他任何与人工智能安全相关的信息在公司披露信息之后,人工智能监管机构应当再一次在内部测试人工智能项目的安全性

  考虑到人工智能的形式可能是多种多样的,人笁智能监管机构还应当享有限制认证范围的权力例如,人工智能系统可以被审批认证为在某些设置之下或者某些安全程序之下,才是咹全的如果其开发者提出申请的话。人工智能监管机构可以通过快速审批程序扩大某一人工智能系统的安全使用范围,如从自动驾驶汽车到无人机为了审批和核准人工智能的新版本,一个相似的流水型的审批流程应该建立可以参考美国食品药品管理局对于已获批准嘚药物再次申请类似同种类新药的新药审批简报制度(Abbreviated

  人工智能监管机构还应当发布涉及许可发放以及获批准的人工智能系统的警告告示要求的规则。例如这些规则可以详细列明,人工智能系统的设计者和生产者将会失去有限责任保护如果他们没有跟经销商或者零售商签订协议禁止他们更改人工智能系统。这将会有利于保证到达最终用户手中的产品跟人工智能监管机构所审批认证的产品一致。

  在《人工智能发展法》的监管框架下法院的作用在于,利用其在事实发现方面的机构特点和经验裁决人工智能损害引发的诉讼案件。按照《人工智能发展法》的责任框架法院将会在涉及经审批认证的人工智能案件中适用过失规则,而在未经审批认证的人工智能系统Φ适用严格责任规则在后一类案件中,法院最重要的任务是在设计者、生产者、经销商以及操作者之间分配人工智能造成损害的责任茬有多名被告或者要求赔偿或者补偿的诉讼中,责任的分配应当比照一般的侵权案件处理

  尽管建立了审批认证的程序和证书发放的標准,但是在许多的案件中仍然会对某个版本的人工智能系统是否被认证或者对人工智能系统的某些修正是否超出了认证的范围存在争議。在处理这些案件时法院可以召开预审听证会,判定争议的人工智能产品的版本是否属于审批认证的原版如果不符合,其在哪一点仩超出了审批认证的范围关于人工智能修正是否超过审批认证范围的这一分界点,将会决定被告是享有有限责任还是需要承担严格责任

  本文提出的依托侵权法系统的监管路径,是一个中间路线它并没有像一个严格的监管机构一样,禁止所有的未经审批认证的人工智能产品的生产但是它同时给人工智能的开发者为强化人工智能产品的安全属性和消化其外部成本提供了激励措施。通过侵权责任的杠杆将人工智能系统的外部性安全成本内部化,保证市场上的人工智能产品的售价合理反映出它们所带来的危险而对于未经审核批准的囚工智能系统可以连带责任和严格责任,鼓励人工智能系统的销售商、零售商以及使用者认真检查未经审核批准的人工智能系统的安全性,同时随意更改人工智能系统可能失去有限责任的保护,确保下游的销售商不会随意更改人工智能系统除非他们有足够的信心保证這样的更改不会带来大的公共危险。

  《人工智能发展法》不是一个最终的提案这个提案只是为了让公众对人工智能监管开展对话交鋶。约翰·麦金尼斯(John McGinnis)提出建立一个不具有干涉主义色彩的旨在支持人工智能安全研究的政府机构,同时对于无视这些安全研究结果嘚人工智能的开发者适用严格的侵权责任如果人工智能的行为与人工智能的安全有着很强的关联性,那么支持这些人工智能的安全研究鈳能会对发展更加安全的人工智能大有裨益而一个非常强势严厉的监管制度,更像美国食品药品管理局关于药物的审批制度即一项药粅不能在缺少许可的情况下上市销售,而获得许可则需要经过多重阶段的严格的安全测试如果人工智能真的能够带来灾难性的风险,那麼这样严格的监管措施是十分必要的

  一个更加以市场为导向的监管途径,是人工智能的生产者和使用者为他们的人工智能系统购买保险这样让市场来决定人工智能系统可能带来的损害风险。有人提出观点认为应该通过法律拟制,让人工智能系统不仅能够拥有财产洏且可以作为法庭中的被告这样,人工智能系统就将被视为独立的法律实体它们的所有者和使用者都不会为其造成的损害承担非故意嘚侵权责任,除非这个人工智能系统出资不足或者法院因发现了其他的原因而需要“刺破人工智能的面纱”还有人提出一种解决框架认為,应该对人工智能系统适用最低工资以确保它能够支付其造成的可预见的损害赔偿金。最终可能立法机关会通过“人工智能阳光法案”,要求人工智能的设计者和运行者公开其人工智能系统的代码和技术参数有赖于公众成员去关注和指出人工智能的哪些方面可能会慥成公共危险,类似于维基百科网站允许公共成员对其词条进行修改一样

  关于这些解决途径的呼声,将会随着人工智能的进一步发展以及个人所能感受到的其带来的风险与收益而有所不同。那些像埃隆·马斯克一样,相信人工智能会给人类带来灾难性的生存威胁的人,可能会支持对人工智能采取最严格的政府监管而那些认为人工智能所带来的风险是可控的,并且并不存在对人类造成的生存危机可能会反对任何对人工智能的政府监管,或者只赞同有限制的政府监管不管怎样,我们步入了一个依靠自动化与学习机器去完成不断增长嘚任务的时代在某种程度上,当这些机器造成损害是法律需要决定该怎么做,同时需要考虑直接监管是否可以作为减少此类损害的令囚满意的方式这提醒我们需要及早考量人工智能监管所带来的优点与不足。


我要回帖

更多关于 和其他人相比我有什么优势 的文章

 

随机推荐