季卫东:算法黑箱化与人工智能立法

更新日期:2022年06月16日

       在算法黑盒化的情况下, 人工智能系统越复杂, 出现操作错误的可能性就越大, 问责难度也越大。如果允许人工智能系统的开发者和制造者对算法错误承担无限的连带责任, 将会阻碍人工智能的发展。季卫东丨中国法学会所长 近年来, 人工智能成为社会热点, 其在各个方面的应用和相关产业的发展日新月异, 带来不少震撼、振奋和对人类的焦虑。与此同时, 人工智能也渗透到日常生活的世界, 就像狐狸潜入人们的书房、琴房和市场一样。所以, 我决定选择关于数字化、数据驱动、人工智能治理和法律创新的主题。这也是我多年来一直关注的一个研究方向。上海交通大学人工智能研究院与中国法律社会研究所成立了国内首个人工智能治理与法律研究中心。 2020年7月10日, 揭牌仪式在世界人工智能大会法治论坛举行。我是负责人。各位, 我也想借此机会介绍一下我们的问题意识和发展目标。他从其专业的法律社会学和数字信息通信技术(ICT)带来的法律制度创新的角度,

简要讨论了以下四个问题: 1.人工智能带来的法律和社会变革; 2. 自动驾驶的权利、责任和道德; 3. 数据的经济价值和人的尊严; 4.智能网络的平台治理和代码统治。 (一)人工智能引发的法律和社会变革 日常生活中的各方面临数字化报道:尤其是在2016年AlphaGo击败人类职业围棋顶级选手后, 人工智能开始受到社会广泛关注。机器学习和深度学习带来了人工智能的质变, 进化的人工智能也带来了人类社会的质变。人工智能引发的社会变革主要有哪些方面?我认为最主要的是数字叠加, 它赋予世界物理和虚拟双重结构, 使我们越来越普遍地生活在计算机空间中。在中国, 日常生活方方面面的数字化速度非常快, 覆盖面非常广。直到现在, 大多数日本人仍然更喜欢用现金在实体店购买商品。 2009年回国后才知道, 中国年轻人很习惯在淘宝上购物。使用支付宝在淘宝购物是一种数字货币。后来有了微信支付, 现在上海所有的地下车库都用支付宝或者微信支付扫码支付。移动支付也广泛应用于餐馆、早餐摊和农贸市场。快递和外卖也特别受欢迎, 尤其是在新冠疫情防控期间, 有利于在保持社交距离的同时满足日常生活需求。还有交通卡, 包括汽车电子保险的普及等等。从这些现象可以看出, 中国的日常生活越来越数字化, 几乎完全被数字覆盖。此次疫情进一步强化了这一数字化覆盖过程, 如群体体温检测、健康码、人脸识别验证等, 全社会将被数字技术全面覆盖。这是一个非常重要的变化。数字化的社会已经产生了我们日常生活世界的电子副本,

所有的活动痕迹都可以被记录并转化为大数据。通过这种方式, 人工智能可以在非常广泛的领域中用于分析大数据并做出预测。在这里, 数据的规模和质量越大, 人工智能就越强大和可预测。总之, 这是当今社会, 尤其是在中国发生的一个非常本质的变化:无处不在的数字覆盖和智能化的飞跃。经济活动的关键对象是从资源到数据:在数字化覆盖和智能化跨越的背景下, 数据的经济价值将越来越明显。例如, 淘宝可以根据消费场景的去向, 分析买家的经济状况、行为、当前需求和偏好, 然后推送相应的产品广告, 根据这些信息和计算结果确定生产计划和营销模式。也就是说, 在数字化覆盖的背景下, 企业可以利用人工智能对大数据进行分析预测, 揭示个人隐私, 推断​​社会发展趋势, 获得竞争优势和盈利机会。从这个意义上说, 数据具有经济价值。马云曾说过:数据是21世纪的石油, 数据是人工智能社会的生产资料。数字经济是由大数据和人工智能驱动的。人工智能系统的连接、交织和交互将构成智能网络社会。
       智能科技采集数据, 应用大数据进行分析和预测, 决定社会的运行方式, 我们整个社会已经成为数据驱动的社会。在这里, 数据不仅具有经济价值, 而且成为交流的媒介和交易的货币。显然, 中国在数据收集和利用方面具有得天独厚的优势。在中国, 70%左右的优质数据由国家控制,

没有很强的隐私意识和专有权设置数据屏障, 这使得各个领域的数据更容易聚集在一起进行处理。也就是说, 数据空间并没有因为过于强大的数据主体结构和人口稀少的小国而碎片化。在这种情况下, 数据大小与人工智能功能的比例关系规律会更加强大。数据的数量和质量越大, 人工智能算法和计算能力就越发达, 数据的经济价值就越高。因此, 中国数字经济增长的速度和效率是非常惊人的。
       当然, 这里必须指出, 个人信息安全和隐私保护不足等问题不容忽视。应找到兼顾数字经济发展和个人信息隐私保护的制度安排。为了保护个人信息安全、隐私和数据权利, 促进网络交易平台的发展, 欧盟做出了非常具有代表性的尝试。 1996年, 欧盟制定了严格保护数据库权利的法规, 试图赋予数据专有所有权, 试图通过绝对所有权的概念来保​​证数据的收集和利用限制在法治的轨道上, 杜绝数据滥用的发生。但是, 该法律规定的实施效果并不理想;在欧盟, 迄今为止还没有出现像中国BAT(百度、阿里巴巴)、美国GAFAM(谷歌、亚马逊、Facebook、苹果、微软)平台巨头这样的数字技术交易。由于数据或信息本身具有流动性, 如果给予独家数据库权和数据所有权, 就会牺牲流动性, 抑制数字经济和在线交易平台的发展。但是, 我们也不能把隐私和个人信息安全作为大数据和人工智能时代经济发展的牺牲品, 因为这会破坏自由的基础。
       关键是如何在功利主义和个人自由之间找到适当的平衡, 以防止或降低我们为数字覆盖支付的隐私价格。市场交易的形态从商品变成了服务:市场交易的形态也发生了很大变化。比如以前的影碟和CD, 对于电影和音乐爱好者来说都是重要的资产, 大家都会尝试通过购买来收藏。而现在,

您可以直接在互联网上下载、观看和收听, 只需要临时购买网络服务, 无需拥有实体产品。还有汽车, 曾经是重要的个人财产, 甚至是身份的象征, 但现在网约车大行其道, 拥有一辆漂亮的汽车已经不那么重要了。从这个意义上说, 出行用车也从实物转变为临时购买的交通服务形式。现有的现代法律制度强调以商品为基础的所有权和个人权利利润保证。在智能网络社会, 当市场交易的主要形式从商品转向服务时, CD-ROM就消失了。人们觉得买车不如租车, 消费者的占有欲必然减弱。相应地, 以物权为基础的法律制度也必将发生很大的变化, 市场监管的方式也将与以往大相径庭。比如阿里巴巴的平台战略, 促使大量厂商和供应商在这个巨型平台上进行营销, 这将带来新的法律监管问题。为了防止阿里巴巴自身的商誉被透支和滥用, 为了保证服务的规格和质量, 杜绝假冒伪劣商品, 本平台必须承担监管责任。从某种意义上也可以说, 交易平台在一定程度上替代了政府发挥监管作用, 这也是行政服务私有化和市场化的一种方式。当然, 与此同时, 政府必须对大型交易平台进行监督管理, 防止垄断和不公平竞争。社会系统变化的三个基本特征:由于物联网(尤其是5G物联网)的发展和人工智能的广泛应用, 不同人工智能系统之间的密切联系和交互作用导致了智能的发展。网络系统。趋势。人工智能系统有不同的目标, 可能会发生冲突, 并且它们的交互可能会导致意想不到的后果。人工智能本来就是做预测的, 但在人工智能网络化和人工智能深度学习的情况下, 经常出现不可预测、不可解释的问题。存在在某些情况下, 越先进、越复杂的人工智能, 可以得到越准确的结果, 但人们很难准确地解释这是如何实现的。这称为算法黑盒。从AI治理的角度来看, 我们当然希望算法是透明的、可解释的, 但实际上很难解释算法的原理和机制, 因果关系无法验证。这使得问责制原则难以实施。因此, 算法的黑盒是我们需要关注的社会系统发生实质性变化的第二个方面。深度学习使人工智能能够超越人类预设的计划和程序, 可以自行诱导新的行为模式, 并根据这些模式进行操作。在这里, 自然而然地就存在一个对人工智能发展的担忧, 那就是失控。也就是说, 人工智能系统的观察、学习、思考、判断、行动能力提高后, 就有可能产生自我意识和独立性。机器变得自主, 人类无法有效控制人工智能。机器人也可能造反, 进而伤害人类。社会制度的上述三项变化将影响制度安排, 对法律制度提出严峻挑战。在许多方面, 代码似乎取代了法律:在人工智能时代, 技术规范往往非常重要。有时, 法规可能会使法律中的现有权利无法执行, 需要进行更改。代码的框架可能会对原有的法律制度安排做出一些改变。在某些情况下, 事实先行, 凸显了法律与现实脱节的问题.随着人工智能越来越多地渗透到社会中, 算法本身决定了有多少事情是有效的。有句话叫算法专政, 指的是人工智能算法、软件和代码框架主导一切的事态。在这种情况下, 法律制度确实面临着严峻的挑战。包括区块链通过网络共识来管理加密资产的方式, 这也不同于以往设想的法律支配。经济社会全面数字化迫使法律采取应对措施:目前, 中国等国人工智能应用系统发展非常迅速, 数字经济似乎处于野蛮增长阶段。然而, 管理大数据产业和人工智能发展的不成熟的法律法规和强制措施抑制了技术和数字经济的风险。另一方面, 人们也会有深深的担忧, 因为人工智能的飞速进步, 很可能将人类社会锁定在特定的路径中, 未来无法退出, 或者退出成本太高。 . .因此, 我们要及时思考和讨论物联网、大数据和人工智能的治理和制度设计, 采取软硬兼施的相应对策。非常重要的回应之一是强调对人工智能发展的伦理、原则、政策和法律的综合治理。如果采取片面的法律监管措施, 可能会限制人工智能技术和相关数字经济的发展, 因此我们认为现阶段软法比硬法更重要。我认为只有这样才能很好地适应了当前保护人工智能发展并适当限制人工智能防止野蛮生长的社会需求。上海交通大学人工智能治理与法律研究中心聚焦计算(大数据)、算法和算力等伦理与法学的关系, 试图构建相应的知识图谱, 推动人工智能时代的制度创新.国内法学界和相关行业都非常关注这方面的进展。近日, 上海商汤智能产业研究院、北京旷视科技有限公司前来与我们洽谈在人工智能治理和数据法律方面的合作。此外, 人工智能技术在法律应用的过程中也得到了广泛的应用, 尤其是在司法领域, 包括电子法庭、智慧司法、基于大数据的自动生成文书等。人工智能作为辅助系统的尝试对于法律决策, 各国都在积极采取行动。人工智能在法律决策中的直接使用更为复杂, 涉及许多技术和价值障碍。它仍处于起步阶段, 仍在探索中。 (2)自动驾驶的权利、责任和伦理在以上背景下, 我们来讨论一些具体的问题, 首先看自动驾驶。 2020年6月27日, 上海开始推出滴滴自动驾驶网约车服务。此前在长沙试行的自动驾驶网约车遭到出租车司机的集体抵制。在亚利桑那州的自动驾驶汽车造成人身事故后, 各国的态度变得更加谨慎。无论如何, 在自动驾驶普及之前, 还有很多法律问题需要解决。首先考虑拼车汽车服务商的资质和信用。目前, BAT在自动驾驶领域提供服务, 其战略将影响自动驾驶的服务状态, 以及权利义务的设定。其次, 现行《道路交通安全法》第十九条规定了驾驶人的资格要求。人工智能也需要考驾照吗?第三, 如何界定自动驾驶汽车的智能化水平与法律的关系?人工智能一旦引入, 只会起到辅助作用, 或者部分操作会自动化;但当涉及到有条件的自动驾驶或完全自动驾驶时, 软件系统本身就会成为责任主体。如果出现问题, 汽车制造商、程序开发者或数据提供者是否应承担赔偿责任?这个责任是如何确定的?如何分配?第四, 人工智能的用户有不同的类型, 但无论是消费者使用还是商业使用, 就法律而言, 似乎应该采取用户豁免原则。对于自动驾驶, 用户根据合同接受服务。此时, 交易的对象不是车辆, 而是移动服务。车辆只是人们搬家提供的一种服务形式。自动驾驶汽车的主要特点是使用人工智能软件。如果车辆在到达目的地之前发生故障, 是意味着服务结束还是另一辆出租车?当交易对象为车辆时, 由买方承担后续风险, 但当交易对象为服务时, 卖方是否始终承担后续风险?法律没有明文规定。理所当然地应该区分硬件和软件。如果问题出在软件上, 你不能追究汽车制造商的产品责任。但谁负责更新嵌入在车辆中的软件?是汽车制造商, 还是软件供应商?当车辆发生故障或因自动驾驶软件缺陷引起的事故时, 就会出现一系列复杂的新问题。此外, 自动驾驶的人工监控和干预如何工作?如果发生紧急情况, 突然从自动变为手动时也会出现混乱。在这种情况下如何追究责任?由于上海已经有自动驾驶网约车上路, 这些问题迫在眉睫, 有关部门需要及时调查立法, 制定自动驾驶交通安全体系的设计方案。 (3) 数据中的经济价值和人的尊严让我们看一下数据中的法律问题。毋庸置疑, 人工智能离不开数据。人工智能的应用, 它的进一步发展, 以及它的预测能力的提高, 都依赖于数据。数据与人工智能之间存在比例关系。数据法律问题的光谱带包括两端:一端涉及产权(数据的经济价值、数据处理模型和算法的知识产权等), 另一端涉及个人信息安全和保护。隐私。现阶段中国拥有约14亿人口, 约8亿网民, 每天产生约900兆的海量数据。据2018年统计, 中国大数据产业相关人才规模全球第一, 占比59.5%, 比排名第二的美国高出37.1个百分点。更值得一提的是, 中国数据公开度高, 70%以上的优质数据资源为国家所有。控制。这种情况有利于打破各种地方界限, 充分调动数据资源发展工业经济。也必将推动人工智能在国家治理和法制运行中的广泛应用。然而, 它也将个人数据安全和隐私保护问题置于更为突出的关注形式之下。物联网、大数据和人工智能的铁三角在某些情况下很可能剥夺公民的个人信息自主处置权(隐私权)、人格尊严和法律面前人人平等的权利.例如, 常见的电子商务和网络使用个人消费信息作为学习数据, 分析行为模式并发布基准广告。这是否构成侵犯隐私权需要认真考虑。特别是, 遗传信息包含这些固有特征。一旦被人工智能解读和泄露, 很容易影响个人的入学、就业、商业保险, 大大减少部分公民的生活机会和选择。在上述两端之间, 还有数据经济价值的实现和利益的分配。大型在线交易平台利用数据产生利润, 但谁是数据主体?数据利润分配是否公平?这些都是非常复杂的法律问题。关于人工智能造成的收入差距问题, 有人建议对机器人征税, 但中国强调通过财政部门实施合理、精准的社会二次分配。在这里, 制度设计不得不面临一定的困境:注重个人信息和隐私的保护可能会阻碍数据和人工智能的产业发展, 注重数据驱动但是, 很容易侵犯个人尊严和隐私, 甚至造成信息安全问题。为了平衡这两个方面, 有必要认真对待制度设计问题。一个值得深入讨论的对策是, 中国应考虑设立数据托管机构, 对存放个人数据的主体给予适当的奖励积分。数据托管机构对数据进行匿名化处理, 企业通过资质审核后可以通过支付版税的方式获取和处理数据, 数据主体也可以适当分享数据行业的利益。在日本, 出现了设立多个信息银行的想法。个人可以像存款一样将信息存入银行, 企业可以从信息银行借用个人信息。在中国, 也许公共数据托管机构更适合国情。 (4)智能网络的平台治理与代码支配 美国学者Lawrence Lessig教授在1999年提出了一个命题:Codeislaw, 代码就是法律。今天有很多这样的例子。例如,

为了保护电视节目的版权, 规定所有DVD作品按照一定的技术标准只能复制一次, 不能复制到其他DVD上, 以防止非法播放者获利。但它也干扰了正常的学习和欣赏。无论如何, 这种现象表明技术规范在很大程度上取代了决定人们行为方式的法律。目前在上海实施的一网管系统几乎涵盖了政府机构的所有服务项目, 健康码成为了一个非常便捷的应用场景。但是, 信息收集和数据处理的权限和程序并不明确。它的法律依据也不清楚, 并且可能会立即改变。事实上, 对于通过网络平台进行的数字治理和经济活动, 各种服务关系很难依法明确权利义务。可见, 人工智能技术规范和数据安全分类标准的制定迫在眉睫, 立法也必须跟上。在这种情况下, 法典和法律之间可能存在平行关系。中国有礼法并列的文化传统, 也有法律与政策并列的现代实践经验, 与法条并列的治理方式未必有冲突。在这里, 我们可以找到治理方法创新的机会或切入点。众所周知, 现代法治特别强调对自由和个人权利的保护。在这里, 自由是建立在隐私权和个人财产权的基础上的, 这就需要权力分立和制衡的机制设计来监督和限制权力的行使。由于人工智能的效率, 我们很难通过人工智能来制衡人工智能。当人工智能广泛应用于政治和法律决策时, 当算法被黑盒化时, 对权力的监控和问责将变得更加困难。在这样的情况下, 用人工智能来制衡人工智能, 用技术来制衡技术, 或许是一个合理的选择, 而这样的分离和制衡机制在未来可能会变得非常重要。在这里, 值得特别关注的数字信息通信技术就是区块链。区块链最初与数字货币比特币相关联。在此次疫情防控中, 中国链协议用于社区治理, 包括信息登记、体温检测、口罩分发等。区块链可能发挥关键作用。简单地说, 区块链协议的本质是黑盒隐私和完全自动化系统的中心工作。通过挖矿,

为人们使用区块链提供激励, 通过区块链达成网络共识。在这个过程中, 通过具体的智能合约明确了各自的权利和义务。人工智能技术的算法黑盒与区块链技术的隐私黑盒形成对立互补的关系。这是一个非常有趣的模式, 将对未来的社会治理和法律秩序产生深远的影响。 (5)结论 总而言之, 人工智能是一个嵌入规则的系统, 可以促进法律规范的严格执行, 形成硬性法律。但是, 在智能网联的情况下, 不同人工智能系统之间的交互非常频繁和复杂, 单靠硬法难免有点简单粗暴。
       必须借助软法加以补充和协调, 加强沟通和程序公平。此外, 在算法黑盒的情况下, AI系统越复杂, 操作失误的可能性就越大, 追责难度也越大。如果允许人工智能系统的开发者和制造者对算法错误承担无限的连带责任, 将会阻碍人工智能的发展。为了限制这种责任, 保证智能合约的违约责任能够依法追究, 有必要确认机器人的主要资产。网格。事实上, 用人工智能来制衡人工智能的想法, 只有在机器人作为主体合格的情况下才能实现。最后我们来梳理一下人工智能相关的法律问题, 可以分为设备、网络、数据、算法、服务五个方面。在此背景下, 人工智能引发的法律范式创新有哪些?一是权利观念从产权到服务评价的转变;二是规范形式从法律到法规的转变;三是机器人权利认定, 追究智能合约违约责任, 限制人工智能开发者和生产者的责任。显然, 我们正在处理一个与过去截然不同的法律制度。进入2020年以来, 我们见证了历史的巨大变化。也让我们一起见证人工智能时代法律制度的巨变! (来自纽约聊斋第十二届云沙龙)

Copyright © 2002-2016 贵阳贸易有限公司 guiyangmaoyiyouxiangongsi ,All Rights Reserved (mcleskovac.com) ICP备案号:辽T3-20165757