日期:2020-06-23 来源: 作者:admin
吴汉东:中南财经政法大学文澜资深教授、中南财经政法大学知识产权研究中心主任
在人工智能技术日新月异的时代变革中,人类/机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。
一、智能革命图景:“最后的发明”抑或最大的风险
进入新世纪以来,人类社会的文明演化呈现出加速发展的态势。21世纪的最初十年,以互联网的普及使用为纽带,社会结构得以重新组织,人类社会与物理社会广泛连接,自此开启了与以往有别的网络社会时代;时至2010年左右,基于广泛分布的传感技术、大规模数据存储和通信技术的应用,数据规模呈现指数型上升,地球村由此步入大数据时代;进入新世纪第二个十年的下半段,伴随着数据处理能力的飞速提高,人工智能对社会开始深度介入,世界正在走向人工智能时代。
整体而论,“人类在进入到21世纪的三个关键时间点,相继出现了三个互相联系又略有区别的新时代,即网络社会时代、大数据时代、人工智能时代,三者共同构成了新的社会时代。”
智能时代是以人工智能(Artificial Intelligence,简称AI)来命名的,作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,旨在了解智能的实质,并生产出一种新的能以人类智能相似方式做出反应的智能机器,其研究领域包括机器人、语音识别、图像识别、自然语言处理和专家系统等。这一技术科学将改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。
“这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。在这里,我们再次以此来描绘人工智能时代的未来图景。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。
在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。人工智能现已成为全球新一轮科技革命和产业变革的着力点,在人类智慧能力无穷增大的“科学梦”背后,是一片蕴藏无限生机的产业“新蓝海”。
社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济价值和社会财富。在谷歌、脸谱、IBM等领军企业的带领下,全球对人工智能的关注度不断提升。截至2015年,人工智能国际市场的规模为1683亿元,预计到2018年将增至2697亿元,增长率达到17%。在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。
可以认为,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。但另一方面,智能革命也将给我们带来诸多麻烦,也许我们面临着一个社会问题丛生和安全隐患不断的“最坏时代”。
到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。2016年,距离麦卡锡、明斯基、香农等人提出人工智能的概念正好过去60年。在过去的一年,人们看到了许多存在于科幻小说的内容成为现实:人工智能击败了人类顶尖棋手,自动驾驶汽车技术日趋成熟,生产线上活跃着“机器人”群体…… “智能时代,未来已来”。人们在为人工智能的强大能力感到惊叹的同时,也激发了对人工智能安全问题的普遍忧虑,人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?
人工智能对人类社会的潜在风险,聚焦于威胁人类自身安全的可能性,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。
质言之,人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。因此,“最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这即是法学家、法律家的任务。
人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。
在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”而法律秩序则是法律制度实行和实现的效果,即社会生活基本方面的法律和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。
人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。换言之,知识问题是现代性风险的根本成因,制度以至法律选择的实质应是基于风险的决策。正是在这个意义上,贝克提出知识经济就是“风险经济”,“风险就是知识中的风险”。具体说来,人工智能时代的社会风险具有以下特点:
一是风险的共生性。风险社会的内在风险,基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。现代社会中的风险是“被制造出来的风险”,是由我们不断发展的知识对这个世界的影响所产生的风险。
马克斯•韦伯形象地指出,人类在不久的将来注定会生活在“技术知识的囚室”。人工智能是知识革命中最具代表性和影响力的时代技术。“对知识体系和技术性知识的信任,是人们在风险社会中获得和持有本体性安全的基础和保证。”从“反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性”,其本身就是一种风险。
同时,人工智能时代的风险含义,还依赖于这样的一个事实,即文明的决策可能触发全球化进程中的一系列问题和一连串的风险,直言之,“风险以决策为先决条件”。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果形成制度化风险。
二是风险的时代性。在风险社会理论中,风险社会这一概念并不是社会发展类型的某一历史分期,也不是某个具体社会和国家的现实发展阶段,而是对当今人类时代问题的理论概括与形象描述。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。
智能社会的形成将是一个长期的过程,或者说是一个时代变迁。以人类思维能力和意识的迁移为表征,以智能机器人的活动为中心,人工智能的发展将会递进呈现出不同阶段。如何应对智能时代中现实世界与理念世界的分离,如何防范病毒、黑客对人工智能产品的侵蚀,这种高科技所引发的高风险会持续整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。
三是风险的全球性。经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是“信息帝国主义”,世界贸易组织是“市场帝国主义”,国际货币基金组织是“金融帝国主义”,而联合国是“政治外交的帝国主义”。贝克对此作出了自己的判断:全世界面临着社会认同解体、价值利益冲突、主体组织对立、国家立场对峙、生态环境破坏等不确定因素,这些危机与发展遍布全球,形成对人类生存的新威胁。
可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。正如吉登斯所言,“在全球化的时代里,风险的影响被普遍化了。”在人工智能风险的国际应对方面,2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。
科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于以下两点事实:
第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系。
第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应“通过法律化解风险”,“通过法律吸纳风险”,“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。
二、人工智能技术在挑战我们的法律
智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:
(一)机器人法律资格的民事主体问题
随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。
是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。
机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。
从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”。
法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”
从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。
基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。
在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。
(二)人工智能生成作品的著作权问题
人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。
在机器人时代,某些作品就是人工智能的生成内容。据美国Narrative Science的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。
有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。
关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的。”
这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。
这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。
(三)智能系统致人损害的侵权法问题
智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。
机器人致人损害有两种情形:
一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;
二是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。
上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。
关于智能系统致人损害责任的认定,有两种责任方式可供选择:
一是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。
上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。
二是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。
在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。
(四)人类隐私保护的人格权问题
网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。
个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。
面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:
一是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我