首页 - 研究成果

陈姿含:人工智能算法中的法律主体性危机

文章编号: 1674 - 5205( 2019) 04-0040-( 008)

人工智能算法中的法律主体性危机

陈姿含

( 北京理工大学,北京 100081)

摘 要人工智能算法的进步带来的治理困境,表面看需要规范制度的健全,更深层的原因是人的主体性危机。人在客观层面的特殊性随着科技的发展逐渐弱化,人工智能技术对人思维的模拟不断迫近,一元论的哲学进路可能会导致法律对人工智能的治理失灵。厘清法律规范中人的主体性的基础是自由意志,沿着以人为目的的目标,重建善的标准,是法律保证人的自主性和进行人工智能治理的基础。

关键词〕 人工智能; 法律主体; 主体性; 理性主义

Abstract: The predicament of legal governance with progress in artificial intelligence algorithmson the surface requires the integrity of the normative systemwhose deeper reason is the subjective crisis of human The particularity of peo- ple at the objective level gradually weakens with the development of science and technology The artificial intelligence tech- nology is constantly approaching the simulation of human thinking The philosophical approach of Monism leads to failures of the law in the management of artificial intelligence To clarify that the subjective basis of human beings in legal norms is Free Willalong the human oriented modeland to rebuild the standard of goodis the basis for safeguarding of law for human autonomy and legal governance of artificial intelligence

Key Words: Artificial intelligence; legal subject; subjectivity; rationalism
 

人工智能是研究人类智能行为规律( 比如学习、计算、推理、思考、规划等) ,构造具有一定智慧能力的人工系统。〔1〕1现阶段,人工智能在专业领域应用成  效显著,比如无人驾驶、智能翻译、智能诊疗、智慧判 决等。它带来便捷生活方式和多元生活体验的同时, 也引发了诸多的问题: 人工智能的广泛应用导致人与客观世界的边界逐渐模糊,人工智能的决策可能带来  对人类秩序、公平和正义的冲击; 人们始终面临着因人工智能而产生的失业风险和战争风险,也面临着“人造产物”的失控和反叛,甚至整个人类文明的消解。法学领域就此问题的探讨,目前主要有两种路径,一是解决与人工智能相关的具体法益的制度性保 障; 一是探求人工智能对法律制度整体的冲击与回应。这与法律学者对人工智能所体现出的怀疑、忧虑 甚至恐惧的两个根源密切相关:  第一,人工智能的安全问题。弱人工智能阶段,人工智能硬件、软件、系统是否能够安全、平稳、有序地参与和开展工作,按照设定程序或者公众期待实现服务。第二,在强人工智能甚至超强人工智能阶段,机器人对人类行善和不伤 害,同样是人类在推进人工智能技术时最强烈的诉 求。如果第一个层面可以概括为因人工智能的安全问题所产生的关于控制性的疑虑,那么第二方面是深入人类社会制度层面的根源,人的主体性危机。人工智能技术的开展可能从根本上动摇人在世界中的主体地位。这一主体地位不仅关乎于人生活的安全,也是人类文明开展的根基,其主体地位一旦动摇,政治、 经济、文化、社会制度随即分崩离析。既有的研究,或者热衷于回答是什么,但忽略为什么既有的规范对人工智能会存在治理的困境乃至失灵,或者虽然触及人的主体性问题却割裂人与自然的区别与联系,陷入盲目的构建。本文从现象到本质探寻,沿着事实、技术到逻辑、制度的路径,试图发掘并重塑人的主体性背后的根源。

一、人工智能算法引发的法律治理困境

     美国科技公司LawGeex 所研制的人工智能产品,在 2018 年 4 月同 20 名资深法律人审阅法律文书的比赛中以耗时 21 秒、准确率 94% 的成绩轻松取胜。2这种司法服务中人工智能的应用具有毋庸置 疑的优势,比如解决因为传统司法主体主观因素造成 的语言模糊和缺乏统一性的问题,双方当事人因为共 同使用人工智能服务系统而更客观的看清自身的利弊得失,进而选择司法调解,促进纠纷的解决。从律师助理到出庭律师和法官,都可能引进人工智能系统 协助开展工作。脑力劳动密集型的职业,比如财务经 理、法律咨询服务、医疗服务等都有可能被人工智能取代。在促进劳动力解放、效率提高、服务专业与便捷的同时,数据算法可能引发三个层次的问题:

第一,依靠人工智能进行信息处理,将引入、扩大 设计者的偏见并延续信息收集的偏差,有可能导致决 策不公。较之于法律决策者,设计者的责任更具有隐 蔽性。信息爆炸使得人们必须依靠人工智能进行信息筛选和信息评估,人工智能进行所有抉择性问题的 基础是搜索和评估,决策的优劣与使用的数据密切相 关。在目前的弱人工智能阶段,必然会有“神人”( 程序的设计者或者制造者) 的存在,用以设定人工智能的核心算法,即如何收集数据和如何处理数据。在这 一过程中人工智能是否继承“神人”的某些偏见或者歧视,并通过高速的处理将其扩大进而损害弱势群体,事关信息使用者决策的公平性,以及信息被使用者是否遭遇歧视。智能算法归根到底是一种数字形式的表达,而数据的收集、处理和表征都有可能被输入设计者或制造者的主观价值判断。同时,人工智能 具有的深度学习能力也可能带来使用信息的偏差,即 通过数据反馈让这一歧视被放大或进入循环,导致不 公。

第二,由于算法不透明本身导致的侵权问题,可能引发治理主体不明和传统民法规则的失效,即引发“谁是治理主体,谁又能够成为被调整对象”的诘问。由于基础数据和弱人工智能的设定者主观因素的影 响而产生的歧视是一种设定层面产生的歧视。除却 设定规则的歧视,算法相关的侵权问题还可能存在于  数据的处理层面,这与人工智能算法的不透明相关。而人工智能在深度学习中所涉及的不透明性可以概 括为: 因国家秘密、商业秘密、个人隐私导致的算法不透明; 因对象不同、对人工智能技术理解不同而导致的算法不透明; 因算法本身的复杂性而导致的不透明。〔3〕身处“万物皆互联、无处不计算”〔4〕的时代,人  们依靠人工智能认识和决策。在人类既有的认识经 验中,事物必须经由复杂的感知,被归纳或者经验性 地划入概念的范畴,但当我们相信机器的决策,尤其是在人工智能逐步发展的前提下,我们获得概念则依 靠技术的预判,理论的进步依靠技术的进步,认识的深度取决于计算的极限。在大数据时代到来以前,人 类是人工智能的创造者,人工智能是辅助者,但是当计算机、互联网和智能终端彻底结合,我们再一次被科技驯化,只有强大的数据收集、处理和决策能够让我们紧随时代的步伐,我们与人工智能开始共生。

第三,技术深度参与司法,以单纯的人工算法推 理代替法律推理可能有违司法公正的制度设计。法 律论证的功能在于使人们确信某一法律决定是正确 的。〔5〕在形成使人们确信正当或者正确的法律决定 的过程中,论证具有重要的影响,除却严谨的论证逻 辑,严格的法律程序,人们确信的另外一个密切因素 就是说服,而这并不是一个完全理性的过程。虽然, 诸多学者为这一行为的理性做出了努力的论述,但也  诚如哈贝马斯,在努力之后依然认识到所有的法庭辩  论受到具体的对象、语言、角色、时间和信息的影 响〔6〕273 - 290。唯一正确的答案并不必然受到当事人和多数人的信服。正如柏林所揭示的那样,寻求千差万  别的事物背后的共同基础和最后根基而得出唯一正 确的结论,本身就是一种强权即是真理的逻辑。〔7〕

直观而言,人工智能算法的进步与应用引发了新的法益纷争,有待法律框架的完善。具体而言,人工智能算法治理的复杂性涉及一种人对自我的重新定位。我们对人工智能所做出的治理和决策应当遵循的法律和伦理框架,与其说是法律对人工智能算法的规制,毋宁说是一个人对自我深度剖析的哲学命题。当人的主体性受到人造技术的冲击,人类世界呼喊进行一次关于人的道德和价值的反思。

在传统的世界观之中,人对自身的定位被区分为三种模式: 第一,宗教模式———把人看作是神造万物的一部分; 第二,科学模式———把人看作自然的一部分; 第三,人文模式———把人看作唯一的主体,把人的经验与对待自身、自然和社会的关系作为一切问题的 出发点。而在人工智能时代,任何单一的模式都无法 准确地定义人的自身以及人与人工智能的关系。以血缘和婚姻为纽带的自然人和自然家庭伦理关系受到新技术的突破,以自然人为基础的主体制度面临着 扩张到电子人格、人工智能人格的压力。人创造了人工智能,但是就如同上帝将对其最伟大的创造———人类失控一样,人面临自己沦为人工智能世界的客体的 窘境,并由此动摇以人为中心建立起的社会制度。

二、语言与算法的关联模糊了法律主体的客观属性

( 一) 算法与语言沟通了人与人工智能的物理世

人类成为地球有史以来侵略能力最强的物种———其根本性的动力就是科技创新。这是现代意义上的人类所导致的第一次物种灭绝。〔843人类发展进程中的另外一个重要的里程碑就是语言。语言具有沟通的优势,这让新的想法可以在群体中得以交 流,而不需每个人都产生新的想法。但是这样的优势并非是人类语言的特长,候鸟、蜂群等一切在群体中的动物都会以某种特殊的信号进行交流,只不过人类的语言更准确也更丰富,这为人类整体性的进步节约了大量的时间。人类语言的一个无可替代的优势是自动生成。当人类的大脑结构能够满足语言的需求, 人们不止获得了交流的最有利工具,而且生成了驯化自我思维的能力,治理混乱、不稳定和无目的的结果, 就是自我意识产生的根源。这也是人从客观世界,从自然中得以被分离的基础。人们的创造力不是一种简单的偶然性和无目的性,拥有了语言的工具和与语言相互联系的思维结构,我们就不仅具有了精神,而且能够获悉自己的精神活动。科技创新和语言思维结合在一起,让这种带有侵略性的扩张获得原始的动力,因为人们的创造活动是一种有意识且可以自我复制的创造。人作为种群走向现代智人的重要节点是语言,这也是以人为中心的制度建立的基础。这堪称人在自然世界最伟大最复杂的发明,也是人在人工智能领域的基础和起点,将语言表达的想法和概念进行高度的抽象,就转变为可以书写可以计算的文化符 号,比如各种文明中的文字,再比如计算机语言的二进制数字。这种文化符号的抽象成为自然世界和人工世界彼此沟通的桥梁: 庞大的物质信息可以进行高度的抽象和压缩,比如在牛顿那里,所有的物质运动皆可以概括为 F = ma; 所有的能量现象也被爱因斯坦表达为 E = mc2。当人类的语言可以高度概括为符号,是不是人的思维就可以等同为机器的计算? “想做什么只要问问自己,我觉得好就是好,坏就是坏”〔9〕的判断,在人工智能时代,配合计算机技术,机器似乎已可以提前告知人大脑如何选择。〔10〕

如果以人工智能的发展对照人类物种的起源和文明的进步,人类历史可以被还原成为数据处理的过程〔11〕342,那么算法无疑正在充当人类新的语言。人工智能与计算机网络的结合,就是语言支配下的科技 创新。算法简单来说就是为了解决问题,设计出一连 串的数学公式,以达到一个理想的解答。诸多的计算 是相当复杂的,所以探讨如何利用有限的资源进行有 效的计算就开始进入算法的学问。如果一个问题是可以计算的,就意味着通过一连串机械的运算,能够被计算机所解决。目前的人工智能所要解决的就是如何在增加节点但是不让计算成指数增加进而达到计算极限的问题。但是棋类对弈、文字分析等规则是 人类对弈思维中的典型却不是极限,现实中人类的大 脑不会因为问题思考的难度或者没有答案而停止运转或者停止给出答案。所以人工智能如果一旦对不可解的算法问题给出答案,人工智能将迈上一个台阶。目前计算机硬件、互联网与类神经网络的深度结 合,正在推动人工智能实现自主性。

( 二) 算法模拟了人作为法律主体的物理性基础人在物理层面的自主性体现为自我修复、自我防御、自我维护、自我改进等方面的自我控制,诸多学者 讨论其他生命体,诸如动物的权利也正是建立在其能 够实现自主的前提下。人们并没有从科技领域获得更多的关于自主性的系统特征,诸多的科技发明只是 具有单一的表征,却无法被发现更深度的自主,比如“无人飞机可以自行操控方向,并且在空中飞行数小时,但无法自我修复; 通讯网络有自我修复的能力,但是无法自我复制; 计算机病毒能够自我复制,但是无法自我改进。”〔8〕12 人工智能展现了比以往的科技更强大的自我创造系统( self - reinforcing) ,对于人工智能软件,研究者不需要输入数以万计的指令,而是任由进化系统挑选最好的指令,这些被挑选的指令通过 深度的自我学习得以不断改进。如果计算机代码能够在人工智能系统中得以像生命系统中的 DNA 一样自我复制、自我删除、自我修复,甚至自我突变,这样的进化至少让以人工智能为代表的人造系统,与以基 因为代表的天生系统之间的鸿沟得以消除。

( 三) 算法复制了法律主体“拟制”的过程

“成文法制定的重要任务之一,是将现实中的人转化为法律上的人; 由此使得生活中现实存在、各具特征的个人,在法律上以统一的标准人、制度人的方式出现。”〔12〕第一,法律根据自然人的客观情况进行 主体分类: 法律的人根据自然人的“年龄”标准划分成成年和未成年人,根据“认知能力”划分有无行为能力人,亦根据财产的多寡决定是否拟制为人(  比如《唐律疏议》中规定“奴婢同资货,部曲不同资货”) 。第二,法律根据自然的人的生活场景不同划分法律主  体场景: 自然的人完全能够自主的生活情境往往属于私法调整的领域,这一领域法律拟制人性本善,约定 为先; 自然的人必须依靠权力配合才能够实施行为的生活空间拟制公法和公法人的存在,并以人性恶作为  基础,规定“法不授权不可为”的行为规则。第三,法 律根据自然的人“相同情况相同对待,不同情况不同 对待”的朴素正义观设立行为模式的评价标准。现实生活中的人虽姿态万千,生活感受酸甜辛辣,法律却将个体的差别进行忽略,消除了差异性与不确定性,而建立起统一的行为标准———人主观善恶的差异被代之以行为的善恶作为评判的前提。虽然自然法学派与分析法学派就法律拟制主体的基础存在纷争, 前者以人性作为构建的基础而后者以规范作为基础, 但毫无疑问它们都实现了人的概念的类型化建构。其本质就是包括人类自身在内的世界存在被测量、记录和分析的可能。量化一切,是数据化为智能科技带来的有力支撑,文字、方位、沟通乃至人的行为都被数据化,〔13〕72进而也就实现了从外部观察以规范对主体的认定标准。

在我们生存的星球上有史可考的生命进程中,在 能够对其他生命形成霸权地位的生物中,人类是最特 殊的,因其“无爪牙之力,无筋骨之强”,其统治的正当性来自于“万物灵长”。当其他的机体具有了同人类一样甚至超过人类的智能,人的优势地位可能会随 即消失。因此,人在物理层面所表现出的特殊性,虽是关隘却非阻隔,是人与人工智能之间区别的前提但 非鸿沟。机器人是否会出现反叛,进而让人处于被压 迫、奴役、杀戮的境地? 人能否保有自身的生存和发展空间,维持其自主性? 人的主体性是否会受到冲击,人类中心的制度体系是否得以存续? 这些问题事关两个层面的问题,一是如何对人工智能算法相关的 技术予以规制,二是如何从制度构建的层面捍卫人的 主体地位。第一层面的技术问题并非忧虑的真实存在,因科技向来存在风险,而法律对于这一层面的安全问题的解决由来已久。第二层次关于人主体性的回应才是人工智能能否进行法律规制的核心问题,这 也引导人们自形而上的层面思考法律主体的本原问题。

三、人工智能算法在思维层面对法律主体的迫近

算法的进步让人工智能在客观层面具有了非同以往的自主系统。技术的精进对理论的发展提出更高的要求。一方面人们转向对思维层面的探究,迫于 寻求除却客观层面特殊性以外,人得以自主的理论根 源,另一方面,为人工智能的技术进步提供哲学的指引。

(一) 从物理搜索到仿生网络,人工智能算法在不断靠近智能发展的“奇点”

人工智能算法的设置大致经历了两个阶段。第一个阶段,人工智能的思维模式可以抽象为一种物理 系统,对关键符号的搜索成为物理系统的关键。这种 物理搜索的模式,与人脑思维在解决问题的层面,具有高度的一致性———设立问题,解决问题。经过人工设计的强化,这一系统更加注重有效信息搜索的手 段,配合计算机硬件的进步,人工智能发展的确展现出超强的运算能力,且完全超过了人的速度。但是我们依然将其称之为弱人工智能,主要在于该模式下人工智能受制于资源条件的限制且并未考虑人的非理性因素。所以物理搜索的方式难免对人解决问题的能力,或者对人们的思考内容表达的过于简单。第二阶段,物理搜索系统展现出的不足,使得仿生神经网络的发展得到重视。如果说物理搜索是试图追求人脑的形式逻辑的话,那么仿生学则直接发力在研究人的大脑复杂的传输结构———通过输入函数模拟负责信息输入的树突,通过输出函数模拟信息输出的轴 突,而人工的神经元则模拟大脑中真实链接和处理信息的神经元结构。所以在仿生神经网络的人工智能系统中,信息的处理更直观的表现为一套学习算法结构。这一算法系统的进步不仅仅在物质结构上更接近于人脑,还具备了基本甚至深度学习的能力,能够进行自身的模式分析,对现象进行描述、抽象、总结、分类、解释等。与物理搜索的方式相比,仿生神经系统可以通过后天的学习而不断提升,这是人工智能不断升级,越来越聪明的重要体现。

( 二) 人工智能思维模式的转变,背后是从唯理论走向经验主义哲学基础的指引

德谟克利特的机械唯物主义和亚里士多德的形 式逻辑为人工智能的物理搜索技术提供了哲学基础。 人在解决问题的过程中的确也倾向于一种按照规律 得出结论的思维方式。而这种规律可以简单概括为:  收集所有有效的途径,删除所有无效的途径,然后得 出一个结论。我们追寻唯理论的真正始祖时,总是归  结于霍布斯那里,因其从自然科学延伸至社会领域, 全部归结为一种加减运算,并认为这种万能的推演逻  辑能够得出一切问题的答案〔14〕28。如果说物理搜索  是一种唯理论,先设定一个理性的大脑,能够抽象和 假设,然后再通过预先输入的通算模式进行求解,那 么仿生神经网络背后的哲学基础就是经验主义,通过  不断的物理刺激形成感官刺激,进而成为一种感觉认  识。算法的设计,主要是通过输入信息比对,形成人 们的知识和概念。从物理现象,到感觉刺激,形成感 觉观念,随着感觉观念被不断强化,形成习惯,从而指  导行为,正是经验的路径,也是人工智能不断学习强 化思维的过程。所以仿生系统的人工智能并不预先 设定用来存储信息或者程式化的算法,而是在感受的  层面形成经验,并建立联系。这种自下而上,从实践 经验层面到形而上的知识和概念抽象的逻辑,至少解决“机器无法学习的问题”。但是如果仅仅将人的思想意识归结为经验同样是存在问题的。绝对的物理搜索无法满足资源枯竭选择问题,而仿生系统从模型上来说无法解决开放性的问题。不可否认,随着硬件能力的提高,仿生系统在物质层面会愈加逼真,但是除却理性和经验,人对丰富多彩的世界随时保持着开放性。这种开放性或者表现为处理信息的多层次性, 或者表现为抛却固有的想法和经验,抛弃习惯、跳出模式、改变逻辑等。

( 三) 人工智能算法的逻辑预设因果关系的必然

无论是物理系统,还是仿生系统,人工智能算法的设计正是对必然性的确信。在这种因果关系预设的影响下,包括人的心智和身体在内的整个物质世界或被解构为分子、原子甚至更微小单位上的元素,这是包括神经生物学、分子医学和物理化学领域一直在努力的方向; 或者被还原为一个可以求解或者克服无解的计算问题,这是数学、计算机和人工智能领域求索的设计基础。受到因果必然性逻辑影响的哲学思想源远流长,且随着近代科技进步被不断强化。在大数据时代背景下,践行因果必然性的两个努力方向紧密的结合在一起。人们在相信人工智能决策的背后, 就隐含着对这种准确无误判断的信赖。这种因果关系的必然性,无论其努力的方向如何,最终导致了一种一元论的思维: 人与客观世界保持一致。这种一元论发展的思维面对人工智能问题时: 第一,将人的身体和心智还原为客观物质; 第二,将人工智能视为生命的延续和必然; 第三,接受科技的自我生命力,以及超人和超人类的存在。因此面对人工智能的发展和可能存在的风险,这种思维逻辑的结果是任由发生, 甚至是推波助澜。

这种必然性的论证逻辑,除却未来的风险,还有一个现实的法律困境,即如果人工智能算法是对自然规律的总结,是一个必然性的加速论证,那么因为人工智能所产生的任何问题,尤其是对人的伤害,就不应当承担责任。既不能追究机器的责任,也不能追求设计者的责任。因为出现伤害的具体原因无论为何, 都是必然性的一种表现。这种思路在算法设计中应当警惕的。

四、人工智能算法引发法律主体性理论的转变

人类在对客观世界的本源性认知上往往从具体的元素开始,比如古希腊的水、火,中国传统文化中的五行、阴阳。柏拉图和亚里士多德以及斯多葛学派、西塞罗等哲学家的本质自然法思想带有对自然规律的探索和遵循。而哥白尼、伽利略的天文学革命,一方面将人从神的必然性那里解放出来,另一方面又为自然的必然性寻求到直接的论据。牛顿的万有引力定律更是将宇宙的整个系统纳入机械唯物论当中。而伴随着科技的进步,人们将这种必然性从自然领域纳入到人的认识领域,认为人的心智同样是必然规律的结果。这种认识上的一元论历来颇受争议,概因其混淆了人与自然、人造与自然、人与人造之间的界限, 但是也为人工智能纳入法律框架提供了思路。

( 一) 法律主体一元论基础因治理风险而动摇

如果人们依然沿着一元决定论的道路,只有两个 归途,一种可能是因恐惧逃避科技进步而陷入发展的 瓶颈; 一种可能是彻底放弃人的主体性这一立足的根本阵营。在决定论的视角之下,人文主义学者只能“假装专心看显微镜而无视实验室里的大象”。〔15〕当社会科学面对技术性进步,站在发展的十字路口,应当时刻保持警醒。如果将人完全置于自然之中,成为必然性和客观规律的掌控者,则人完全不需要实在法的存在,更无法根据法律规则承担责任。科技的强势 发展导致一元论思维对后世的影响深远,才是法律对 诸如人工智能等新技术问题失灵的重要原因。“生物就是算法、算法并不自由以及外部算法比人更了解 我们自己”11〕296这种思维方式,显然悖离了人与自然 主客二分的规律,偏离了法律具有价值追求的基本原 则。

( 二) 法律主体为自由意志留有空间

科技可能否认事实,但是无法否定伦理,这是自由意志存在的价值。现代法律的思维起点,应当是也 必然是自由意志。只有在自由意志的关照下,承认人  有选择自由,才是架构权利、义务和责任体系的基础。笛卡尔的差别性原则就此作出了本质性的努力。按照笛卡尔“我思故我在”的结论,一个人的本质应该 是与身体相对应的“思”,也就是思想与精神。〔16〕56-59 笛卡尔在解决人自身的对立的时候,同时也解决人的  统一问题。人的本质在于意识,但是意识有一些是纯  粹的理智,与外界没有任何的关联。有一些是感觉、意志和情感,与人的身体必须发生必要的关联,比如 血液、器官等。所以笛卡尔区别灵魂( soul) 与精神( spirit) ,前者与肉体有关,而后者与肉体无关。在笛卡尔的二元论中,心和物分属于不同的世界,并遵循 不同的规律。精神不仅是人与动物的分水岭,也是人  与机器的分水岭。所以在笛卡尔看来无论机器设计的如何精妙———纵然机器与人能够进行交流,或者展现出同样的状态,皆不代表机器具有人的意识,能够 具有意识的内在状态。面对这种启发,从理论构建层面,我们必须为人的意志寻求独立空间,作为制度构建的基础。20 世纪 80 年代开始,人们在心智理论基础之上构建出了理论论、模拟论和混合理论用以“读心”。17〕这些论证同样适用于人工智能程序原理设计,比如“维诺格拉德的SHRD.LU”,“魏曾鲍姆的ELLZA”以及图灵机对人类心理现象的模拟。〔18〕74 上述三种理论无论哪种理论都致力于对他人理解的间接性模拟,也客观证明了机器无法还原人类在理解他 人心智中所表现出的直接性,因为它并非一种镜像机 制可以触发的模拟与推理。由此人工智能的发展也引发人们摆脱过去单一的“物质特殊性”转变为从系统的角度、行为模拟的角度、大脑模拟角度、联合应答角度和他人心灵应答角度来看待人与他者之间的关系。其背后事实是对“脑”与“心智”二元的肯定,更是对“人”与“他者”的严格区分。

(三) 社会契约彰显法律主体的安全地位

现代法律制度构建的一个重要基础是社会契约。二十世纪中叶,随着技术突飞猛进的发展,技术决定 论在社会科学领域影响深远,以至于虽然历经近三十  年的对技术与社会关系的不断反思,“技术决定论的 影响在当代仍被低估”。〔19〕从自我意识反向运动奠定  的道德基础再到阿多诺否定辨证的道德界限,西方道  德哲学在不断修正与完善中,承认理性的有限和对知  识的无限追求,进而期望建立科技伦理寓于科技本 身,才得以论证科技对人之理性的正当。这一过程一  方面说明科技不断向自我意识寻求正当性,另一方 面,科技伦理世界的普遍性也是与伦理世界的现实性  和民族性密切结合在一起的,这意味着现代性的反思  必然要寻求个人与他人世界,与社会生活的关联。社  会契约尽管复杂,缔结条约的个体从始而终也鲜有脱  离,却可以高度概括: 人类放弃宏伟的宇宙计划,选择在人类社会中获得力量。法治社会中,实体法通过对  人权的保障和人的主体地位的确立,肯定了这种力 量,也彰显了自由意志的独特价值。所以法治社会中  的人最安全,法治中的自由意志最能彰显力量。

五、人工智能算法主体性的法律治理路径

法律主体并非主体性问题的全部,却是一切法律领域共同关注的话题,无论是研究一般意义上的法律的法理学,还是以调整特殊的法律关系为内容的部门法学,概因法律主体是法律现象中最为活跃的因素, 最原初的动力。主体具备作用于客观世界的能力,进而产生可以进入法律规制的客体; 主体具有同其他主体发生联系的能力,进而形成法律关系。由此可见, 法律主体是权利的来源,是法律关系的逻辑起点,也是整个法律制度保护的基础。

(一) 法律主体概念同生物学上的人相互区别

法律主体与生物学上人具有区别。现法学研究与具体的法律制度构建,将人的主体地位区分为两个要素: 权利能力与行为能力。权利能力是一种资格, 这种资格在《法国民法典》《德国民法典》和《中华人民共和国民法总则》等法典中被定义为“始于出生, 终于死亡”。就这一普遍性的概念而言,具备法律的主体资格,首先必须是自然人。这让人产生一种怀疑,既然法律的主体资格与人的概念密切相连,具备了主体资格是否就具有人的属性; 具备了人的属性是否就具备了法律的资格? 事实上这两组等价关系都不必然成立。从法律发展的眼光来看,近代以来,伴随人性解放,法律为权利而斗争的一个重要体现就是尽可能地实现自然人的主体平等地位,这也成为人权保障的一个重要成果。但是这一进步让人们忽略了一个问题,权利能力同人格是并不完全相容的概念。在罗马法时期,并不是所有的自然人都具有法律的主体资格。法律的主体资格更多是一种同身份相互联系的概念。不同的身份对应不同的权利能力,而且人的权利能力还会随着身份变化而变化,所以法律人同生物人是分离的。法律人的概念是一种身份,而生物人的概念是一种事实,更是一种伦理。现代法律制度的进步,将法律主体扩大至全体生物人,在于对自然人的保护。但并不意味着法律人和生物人可以混为一谈,也不意味着身份与人格是同样的概念。现代法制下,法律主体地位被赋予所有的普遍的无差别的自然人,法律的主体制度也就逐步剥离了身份的差异, 而变为一种不具有价值判断的中性的法律技术。在这一层面,纵然人工智能算法不断靠近智能的“奇点”,并不必然得出其主体地位得以确立的正当性。换言之,人工智能模拟或者仿真的只能是生物学意义上而非法学意义上作为主体的人。

(二) 立法技术中立不否认人格高贵

沿着笛卡尔关于“思维着的我”〔20〕26 的回答和讨论衍生出近代以来的理性主义和经验主义,并由此完善了大陆法系和普通法系有关人主体性的哲学基础。 在这一过程中,法律的人被逐步中性化,法律条文规范中的人去除个性,而留存普遍性。所以法律中的人,都是拟制的人,而非真实的人。它假设人们都是理性的,且不具备个性、爱好、随机的差别。法律主体不仅仅包括自然人,也包括法人。这代表着主体地位的授予是为了法律关系的开展,当然其终极目的也是为了保护个人。法律能够对人进行拟制。法律主体资格可以赋予那些不具备自然生命的事物,因而,国家、社团、法人和其他组织,皆可称为主体,但是不能享有法律对人格特有的保障,不能侵害法律赋予人格 的特殊恩惠。沿着法律对人格的特殊恩惠,实在法可 能会实现对强人工智能等类人类事务的拟制过程,但 不能否认自然人在法律上的特殊地位。

(三) 康德“以人为中心”模式的可能与反思

表面上,从经验主义到唯理论指引的人工智能算 法发展,以一元论哲学为基础,肯定了技术的理性,否  认了人的自由价值,塑造了法律的契约,也瓦解了人 格的神圣。事实上本着从事实到理论再到模式制度 的探寻不难发现,法律主体制度的构建,无论是以价 值倾向还是规范倾向的构建,不应也不能抛弃人的中  心地位。以人为中心的制度文明中,康德的哲学体系  具有以下三个层面的意义。第一个层面,从自由意志  的角度界定了人与动物,人与自然,人与人之间的关 系,将人视为自然和自由意志的存在。人克服动物一  样的冲动,也就克服了自然律,这种自我强制恰恰表 现了人的自由,人因自律与一切受到他律的客观世界  分离。〔21〕158 - 160 第二个层面,人对于准则的服从中不是盲目的,人的理性也不是无限的。在康德生活的时  代,正是数学和物理急速发展的时代,科学被不断证 明是正确的。而康德的努力正是在于通过承认人的 有限性,而划定人的意志的区域,构建出完全形而上 学的范畴。人感受到的自由和外化为权利的自由都 只是一种类比的方式,引导我们发现自己真正的道德  律。所以康德尝试回归到自由意志的层面构建从纯 粹理性向实践理性过度的实践规则。〔22〕33权利是以自  由意志为基础的道德法则,但是权利不是自由意志本  身,而只是自由意志处理群己关系时的外在形式。然  而这种外在形式不是一种经验或者现象,因此区别于  自然律的统治。〔22〕437 因此制度体系的构建应当是人在运用自身的理性时所服务的具体的目的。所以人 的自由意志在这一过程中应当被尊重,人本身就是实  践的目的而并非手段。第三个层面,进入到社会领 域,人的理性将那些符合处理群己关系的正义和权利  固定下来,并且以实体法实现保障。在这一保障的过  程中,形式化的要求代替了伦理化的要求。人是自由  意志的存在,所以能够为自己立法,人是自然的存在, 所以能为自然立法。〔23〕91 - 97人是一切规范的中心和本源。规范当中的技术化处理将人的自由意志作为出 发点并把服务于人作为一种前提性的预设。

在康德模式中,人是自由意志和自然存在的统一,是先验和经验的统一。正向的关系应当是人在规 范自身的过程中规范自然,人在理知的过程中统觉经 验,人在制定实体法的过程中预设前提。反向的过程可以推导出,人的他律不违背自律,经验不否认自由意志,价值中立不违背伦理。所以康德的伦理模型在 今天仍然具有极其重要的意义,不仅仅指引人工智能 无限接近于人的思维,更重要的是将“尊重人作为目的”作为绝对律令。这种绝对律令通过算法植入智能技术为人工智能的问责提供了基础。

康德哲学似乎给出了一定问题的答案,但是另一个问题是康德旨在建立一套能够从自我意志向社会实践践行的技术规范。康德的自由概念必须设置在同自然完全平行的领域予以探讨,因为在机械论的视角下,“作为自然物的人永远不可能是一个终极目 的”。〔24〕280当进入到实践层面,我们就不免要质疑权利的正当性基础。当然在这一权利下沉的过程中所面临的就是唯法律主义。在人工智能有能力和有模型作为法律主体之前,法律构建的模式是,只有把善的标准彻底打入了私人的领域,法律才能公平的对待所有的善。因此人的自由意志的体现应当是让人摆脱道德纷争。在这个过程中,法律的主体资格失去了伦理的标准,宗教信仰、民族国家、性别血缘、身份等级失去了对个体法定权利压迫的可能,也丧失了法律上的意义,人格的概念在规范的层面彻底失效了。然而知识的扁平化和科技的异军突起,深入社会生活的方方面面,康德所构建的模型也面临一个挑战,并非所有的人想要或者有能力要实现否定意义上的自由。 大多数的人的真实的生活仅仅停留在对法律肯定性评价的层面,认知自我、反思自我和评价自我。

(四) 从自主到多元协调的善的标准

既然法律的主体性问题并非一元论可以决定,法律调整并不否认自由意志的存在,不排斥善的标准, 那么,对人工智能主体进行规范是否存在统一的善? 相较于伦理、习惯和宗教中一个善的行为需要在认 识、动机、结果、组织评价等多方面满足善的要求,传统的法律追求的善,则主要是结果的善。法律规范优先保障个体权利,但在智能时代,法律主体之间的自由与利益在维度、性质和关系层面都发生了深刻变 化,单纯以结果的善恶,或者私法领域的肯定性评价为标准不足以解决利益的复杂性和需求的多样化,无法适应人工智能时代权力治理、权利冲突和自由保障兼顾与平衡的新需求。

人工智能时代需要对善的标准的选择和设定重新考量,在立法中必须思考,如何应对智能算法歧视和黑箱问题; 个人对自我个体信息的失控; 采集和使用信息时对个人信息自主性的干扰等。规范算法本身的透明度和可解释性问题、建立参与者的问责机制,构建运算数据在处理领域的秩序框架,本身就是法律调整领域的扩张。再如,以人格利益作为内核的隐私权立基于人性尊严的自主,但实践中,个体常常因为技术劣势失去对自身隐私的控制,从而阻碍了个人基于个体权利规范寻求财产性利益和参与技术分配的可能。为防止基于技术或者信息不对等而对处于劣势的群体和个人盘剥,技术和资源优势占有者应当负有更多法律义务。实际上,技术虽然进步了,但知情和同意依然应当是信息时代最重要的命题。通过人工智能算法的法律治理,依然应保障权利法律的基本框架,为此,需要为数据研发端和应用端的延伸, 设定更多的限定性规则,确保数据采集建立在对话协商和知情同意基础上。

从以自主为核心到复数主体多元利益的协调,需要法律规范整体性功效的发挥。实际上,欧盟和美国立法的进路也对这一问题给予了探讨和回答: 对人工智能算法的规制沿着纳入民法、涉及个人信息的电信法到公共卫生法的立法模式选择,到智能算法涉及到的数据信息进行一般信息和敏感信息的分类,再到越来越多涉及不同法律部门不同调整方法的专门性法律文件,以及整合社会资源的政策性规划的发布,其背后的动力除却不断适应技术发展的客观实践推动, 更多体现了传统法律道德在技术变革背景下的价值延续。

参  考  文  献

1〕〔卢克·多梅尔 人工智能改变世界重建未来M 赛迪研究院专家组译 北京: 中信出版社2016

2果壳网 AI 也要抢律师的饭碗了吗? 凤凰网EB / OL〕〔2018  4  27http: / / tech ifeng com/ a /20180403 /44928677 _0shtml.
3Cary Coglianese and David LehrRegulating by robot: Administrative decision making in the machine learning eraGeorge- town Law JournalMarch 72017

4杨婕 全球人工智能发展的趋势及挑战J 世界电信2017( 2) : 15  19

5杨贝 法律论证的能与不能J 华东政法大学学报2017( 2) : 84  94

6〕〔德〕哈贝马斯. 在事实与规范之间: 关于法律和民主法治国的商谈理论〔M〕. 童世骏译. 上海: 生活·读书·新知三联书店,2014.

7甘阳 柏林与后自由主义”〔J 读书1998( 4) : 38  45

8〕〔凯文·凯利 科技想要什么M 闫丽娟 北京: 电子工业出版社2016

9Jean Jacquesmile ou De léducationParis1967: 348

10Chun Siong Soon et al,”Unconscious Determinants of Free Decisions in the Human Brain”,Nature Neuroscience2008Vol5

11〕〔以色列尤瓦尔·赫拉利 未来简史M 林俊宏译 北京: 中信出版社2017

12胡玉鸿 法律主体概念及其特征J 法学研究2008( 3) : 3  18

13〕〔维克托·迈尔  舍恩伯格肯尼斯·库克耶 大数据时代M 盛杨燕周涛译 杭州: 浙江人民出版社2013

14〕〔霍布斯 利维坦M 黎思复黎廷弼 北京: 商务印书馆1985

15Michael GazzanigaWhos in Charge?: Free Will and the Science of the BrainNew York: Ecco2011

16〕〔笛卡尔著 第一哲学沉思集反驳和答辩M 庞景仁 北京: 商务印书馆1986

17崔中良,王慧莉. 人工智能研究中实现人机交互的哲学基础从梅洛·庞蒂融合社交式的他心直接感知探讨〔J〕. 西安交通大学学报( 社会科学版) 2019(1) : 111

18〕〔玛格丽特·博登 人工智能哲学C 刘希瑞王汉琦 上海: 上海世纪出版集团2006

19黄晓伟张成岗 技术决定论的现代性透视J 自然辩证法研究2018( 11) : 27  32

20〕〔笛卡尔 第一哲学沉思集反驳和答辩M 庞景仁 北京: 商务印书馆1986

21邓晓芒 德国古典哲学讲演录M 长沙: 湖南教育出版社2010

22〕〔康德 实践理性批判M 邓晓芒 北京: 人民出版社2003

23〕〔康德 道德的形而上学原理M 苗力田 上海: 上海人民出版社2005

24〕〔康德 判断力批判M 邓晓芒 北京: 人民出版社2002