打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
公管荐书 | 权力之治:人工智能时代的算法规制


         荐语

算法权力已成为社会、媒体和社会科学中一个熟悉的话题。在这些讨论中,一个不言而喻的共识是,算法中渗透着规范性,而这些规范性塑造了社会。在这个意义上来说,本书的问世恰逢其时。纵览全书,这是一本内容翔实,文风简洁,大众可读的学术专著。
——於兴中

本书警示了技术统治乃至技术垄断的技术意识形态,系统性地研究了算法时代科技和法律的关系。作者是国内最早开展算法治理研究的学者之一,本书就是她在此领域的力作,也是法学界在算法治理领域具有代表性的个人学术专著。

——龙卫球

本书就其建构的关于算法规制的法学理论体系以及对与算法规制相关的具体论题研究的深入程度而言,都堪称法学界在算法规制研究领域涌现出的代表性作品之一。这一著作必然会引发学界的高度关注。

——薛军

本书聚焦中国法治实践,探究法理前沿,系统梳理了算法规制的历史溯源、法理脉络、制度框架、责任机制,并结合平台治理、社交媒体、电子商务、行政治理、司法裁判等具体场景展开探研。作者可谓法律界研究算法规制的“神算子”,此书也成功勾勒出我国算法规制的法律蓝图。

——宋华琳


作者:张凌寒
出版社:上海人民出版社
出版时间:2021年5月

         作者简介

张凌寒,女,法学博士,北京科技大学副教授,康奈尔大学访问学者。本硕博均毕业于吉林大学法学院,北京航空航天大学法学院博士后。中国法学会互联网与信息法学会理事,中国婚姻法学会理事。主持国家社科基金、教育部、司法部、中国法学会等多项科研项目,在算法治理领域发表多篇法学核心期刊论文,并多次被《人大报刊复印资料》全文转载。

         作者导读

随着数字技术的快速发展,算法逐渐从技术演化为权力,并在当今的时代产生异化。本书力图回答的核心问题,是在人工智能时代算法如何成为权力并如何应对进行法律规制围绕这个核心,本书各章节着力于回答以下问题:算法是什么,算法如何成为权力,算法权力在社会各个领域带来的问题以及如何规制算法权力

前言部分从数学意义、生产意义、社会意义上厘清算法的概念和范畴,并剖析了算法的技术逻辑与在社会各个领域的应用广度与深度。第一章从历史角度梳理近半世纪以来,法律是如何应对算法带来的不利法律后果的

第二章和第三章作为本书核心章节,研究算法如何嵌入社会架构成为新兴权力,即算法权力规制的制度框架,以及产生的异化风险。第二章着墨于人工智能时代的算法演进给传统法律规制手段带来的诸多挑战,提出问题的本质在于本体化的算法已经成为了调配社会资源的驱动力量,继而成为了新兴权力。第三章则提出算法不应再作为普通的技术革新,而应被视作新兴的社会权力进行制度设计。

第四章到第九章分别探讨了算法权力嵌入社会权力架构的典型代表场景第四章通过梳理各类搜索引擎算法判例,研究其对公民人身权利、财产权利与公共利益的损害,是否应由搜索引擎平台承担法律责任并如何承担责任。第五章则聚焦于作为民众获取新闻主要来源的社交媒体的内容推荐算法,探讨其如何进行内容屏蔽、推荐、排序从而主宰社会新闻议程,以及如何引起公共利益原则对个性化推荐算法进行治理。第六章在算法自动化决策逐步广泛深度嵌入行政活动的背景下,如何坚持、修正和发展正当程序原则是亟待研究的重大议题。第七章聚焦算法技术广泛应用于司法活动各个环节带来的风险与挑战,以及如何应对。

第八章到第十二章则从平台治理、政府监管、个人赋权等角度探讨算法权力规制的具体制度,并梳理与总结了国外的制度实践。第八章和第九章研究了如何在平台监管中进行算法治理,力图解决现有平台责任层次过浅、时点错后、被动追责的困境,并讨论了我国《电子商务法》中算法责任的制度得失。第十章主要从个人赋权的角度探讨算法权力规制路径。第十一章通过探讨“不受算法决策的自由”来讨论算法对人的主体性的消解效应,即如何通过法律制度予以应对。第十二章对美国、欧盟和其他地区的算法规制进行梳理与系统整理,以期为我国算法规制提供镜鉴。


        书籍目录



         精彩书摘

1.智能算法的本质与权力化趋势

智能算法根据大数据进行自主学习生成决策规则,其不透明性与自主性导致人类无法窥知算法决策的具体过程,使算法成为调配社会资源的新兴力量。这主要体现在:第一,算法通过对数据的占有、处理与结果输出,演化为资源、商品、财产、中介甚至社会建构力量。在人工智能时代,数据同时具有自然属性和社会属性,这表现为数据既是算法计算和运行的对象,又是社会利益的载体。有学者将数据承载的信息视为社会权力的基础,认为一方主体通过占有信息并控制另一方主体获取信息的渠道和程度,同样可以构成前者的权力来源。第二,算法直接变为行为规范,影响甚至控制个体的行为。正如美国学者莱斯格在《代码即法律》中所指出的那样,代码是互联网体系的基石,它有能力通过技术手段规范个人行为。以滴滴出行平台为例,这种看似松散的连接乘客与汽车租赁、驾驶服务的平台,却实质上拥有比传统出租车公司更强的权力——订单的分配和接受、行驶路线的指定、费用的支付与收取、司机与乘客的评分等活动,均按照算法规定的程序进行。第三,算法辅助甚至代替公权力,作出具有法律效力的算法决策。公权力或高度依赖算法的事实认定功能(如人脸识别、交通监控),或依赖算法辅助决策和法律适用。在某些领域,算法已经可以直接作为决策者作出具体行政行为。如我国智慧交通体系的建设中,算法可以直接对监控查获的交通违法行为处以罚款。基于此,智能算法调配资源的力量使其形成了一种事实上的技术权力。权力是社会学和哲学领域的重要概念,凡是特定主体拥有的足以支配他人或影响他人的资源的能力均可称之为权力。技术作为一种征服自然和改造自然的力量,本身没有价值取向,也不具有权力的属性。但如果技术对人的利益能够直接构成影响和控制,技术便失去了纯粹性而具有了权力属性。在算法权力对于数据、人的行为和公权力资源的调动能力等方面上,其属性和实现形式具有区别于其他权力的独特之处。正如法国哲学家福柯提出的“无所不在”的现代权力范式,算法权力区别于政治学中自上而下的操纵和支配,强调的是权力在实际运作中的网络结构化和弥散性。

2.算法权力嵌入公权力的异化风险

算法权力借助公权力体系野蛮生长,却缺乏相应的规制与救济路径,从而产生了权力异化的风险。这体现在:第一,传统限制公权力的正当程序制度对算法权力无效。例如,犯罪预测系统的算法为防范犯罪风险设立,需要对公民进行挑选、甄别与行为预测,却并不需要遵循正当程序原则。从理论上讲,即使算法的犯罪预测结果未被采纳,也不应对公民任意行使调查和监视的权力。这种对公民的特殊调查和监视虽然不是有罪判决,但是挑选、甄别和进一步调查同样构成一种不必要的不利待遇。第二,由于算法权力隐含于公权力运行中,严重缺乏透明性。算法基于数据的相关性来识别和预测人类行为,此过程不会被人类甚至普通计算技术所察觉,公众也无从对其错误提出质疑。第三,由于算法所作决策的理由与程序并不需要对相对人公开,目前为止无法对算法决策提供救济渠道。如果具体行政行为的内容包含算法决策,行政相对人对该行政行为发起的行政复议、行政诉讼或请求政府公开的信息之中应该也包含算法决策的相关信息。但是,算法是否属于可以公开的信息尚不明确,行政机关极有可能以算法涉及国家秘密、商业秘密、个人隐私或算法决策系统,属于内部信息为由而拒绝行政相对人的申请。第四,因算法决策系统的技术需要,公共部门需寻求外部技术资源支持,既易造成权力行使的失误也同时违反权力专属原则。大量非司法行政主体如公司、网络平台、个人等均可收集监控数据向特定算法提供,由算法进行不确定数据来源的分析,作为司法行为和行政行为的依据。这种权力的“外包”在我国多体现为公私合作的形式,如浙江省高级人民法院与阿里巴巴合作,法院利用算法和阿里平台的海量数据对涉诉人员绘制“画像”,包括身份信息、联系信息、消费数据、金融数据等,以协助法院查询、送达、冻结资产等。由于算法决策的广泛使用,传统上由司法行政主体行使的监控、追查等刑事司法权力向不特定社会群体转移,但其限度尚无法律的相关规定。在此背景下,公权力借助算法扩展权力版图提高行政效率,极易形成公权力与算法权力的合谋。普通公众则因缺乏对抗的技术资源,而在权力结构中处于更加弱势的地位。即使算法权力的运行出现错误,决策的成本和后果也不由其部署应用者(政府部门)承担,公权力既无监管动机也缺乏制度约束。

3.从数据保护到算法规制

既往法律制度过于偏重数据保护而忽视了对算法的规制。在人工智能时代,我们所面临的是截然不同的数据生产与流通的方式,以及数据利用所产生的庞大价值与风险。这种变革是由算法权力的兴起而产生的。商业平台与公共部门均借由算法的力量扩张各自的权力版图,产生新的知识生产与人口治理模式。算法权力的兴起使得传统的数据保护路径失去了意义,具体包括个人数据保护的知情同意原则已经基本被架空,对于个人敏感数据划分标准因算法的分析基本失去了意义等。前文所描述的商业监视资本主义、公权力与算法的合谋等现象显示,数据是算法的养分,算法借由数据生产知识,产生利润,控制人类行为。因此,政策制定者不应仅关注数据产生的效益,更应该注意由于算法对数据的使用造成的社会负外部效应。因此,法律规制的重点应转为对算法的规制,取代过去对于个人数据以保护为主的方式。对算法决策的规制意味着对于数据利用层面的规制,而非过去的仅偏重数据收集的规制。2014年美国总统科学与科技顾问委员会也提出应将政策“更多聚焦于数据的实际使用”上。数据必须借由算法的逻辑与运算,才能形成潜在的价值或者风险。个人权利遭受损害的来源,不仅来自数据或算法,还来自两者的汇合。因此应将个人数据保护的重点转为对于数据控制者“数据使用”的监督上,尤其是在特定敏感数据的二次利用上,应建立数据处理活动的风险评估机制,以避免造成错误的决策。从偏重个人数据保护到偏重算法规制的思路转变,会引发一系列制度设计的变化。首先,偏重算法对数据利用层面的规制,会注重设计利用过程中的相关制度,如算法的正当程序原则。其次,偏重算法对数据利用层面规制,可不再坚持数据的客观性与中立性,而关注技术理性隐藏的人为因素,注重算法的道德评价,具有了建立算法问责制的可能。最后,如果说个人数据保护制度注重的是隐私、安全等价值的保护,那么偏重算法规制的思路更应注重保护人类尊严、公民权利、社会公平等价值的保护。

4.配置个人权利对抗算法权力

规制算法权力,不仅应对算法权力运行合理限制,也应通过配置权利以对抗权力的滥用算法权力与普通公众力量对比悬殊,应尽量从制度设计角度赋予公民个人及其他主体以权利,以增加其与算法权力博弈的资本,使其免受算法权力的侵害。第一,个人数据权利赋权路径。算法决策是否可信取决于数据的数量与质量。个人享有数据权利、增强数据获取与分析的能力,既可增加与算法权力博弈的资本,也可对抗算法权力的侵害。具体而言:一是个人应享有一定数据权利以获得博弈的资本。法律应明确个人数据权益的范围,使算法的使用者需要与个人协商方能获取算法决策所需要的数据。如此算法的使用者需要支付一定对价,而这种对价的形式并不一定是金钱。使个人获得博弈资本是设立数据财产权的目的:财产权所界定的是,凡是想要取得某些东西的人,就必须在取得之前先进行协商。二是在行政与司法领域,个人收集数据、获取数据、分析数据的权能应得到加强。应考虑由公权力提供援助以平衡公民在数据与算法等技术能力上的严重弱势,这样个人方有可能应对在侦查、审判、量刑中算法权力与公权力的共同作用。第二,保证个人事后获得救济的权利。为了应对算法权力的侵害,个人应当享有事后获得救济的权利。其中包括获得算法解释的权利、更正或者修改数据的权利、退出算法决策的权利,等等。有权获得救济的主体应为受到算法不利决策的个人,如经过算法评估不被雇用的候选人,受到歧视性算法量刑的犯罪嫌疑人等。首先,应为请求救济的个人提供算法决策的理由,即提供算法决策的解释。其次,如果发现不利决策由于错误数据造成,应赋予个人更正或修改数据的权利。最后,如果仍无法得到合理的算法决策,应允许个人退出算法决策,并寻求人工决策。在这方面,欧盟《通用数据保护条例》第22条赋予了个人不受纯粹的算法决策支配的权利,以及获得人为干预的权利。尽管上述权利的行使存在诸多限制,但仍不失为有益尝试。

本期编辑:刘丹琳

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
温昱‖ 算法权利的本质与出路——基于算法权利与个人信息权的理论分疏与功能暗合
陈根:从算法权利到算法权力,打破算法赋权失衡
前沿译文 | 算法统治世界?
侯东德 张可法:算法自动化决策的属性、场域与风险规制
人工智能在税务领域应用中的风险及规制
汪庆华:人工智能法律规制路径的一个框架性讨论
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服