-
张凌寒:《平台治理与算法问责》
2025-06-02 14:04:59
作者:张凌寒(中国政法大学数据法治研究院教授、博士生导师)
一、平台治理将走向何方
今年,美国,欧盟和我国同时出手,对网络平台尤其是超大型平台的治理手段大大加强。美国曾发布行政令,推动社交媒体平台进行自我审查的政治中立性,而且平台不当使用算法技术也存在被问责的可能。欧盟最新颁布的《数字服务法案》包含平台治理的一揽子计划,例如要求平台承担监管非法内容和商品的责任,对消费者公平、合理地使用算法,法案也允许对大型在线平台进行事前监管。在我国,行政机关频频发布各种规章、文件对平台施加更重的责任,监管部门也有突破立法原意、过度扩张平台义务的潜在动力。我们可以看到,整体上,全球平台责任呈现出加重的趋势。
发生这样的变化的原因是什么?众所周知,平台的运行有赖于各种技术的运用,近几年来,算法被广泛使用来推进平台运行的自动化,人工干预大大减少。例如电商平台利用算法进行商品定价、社交媒体平台利用算法进行信息分发与推送。但平台的自动化似乎必然导向了更轻的平台主观过错,进而导向更轻的平台责任。如此一来,人工智能时代下的平台主观过错的认定机制变得模糊不清。也正是基于这样的大背景,各国近年来都不约而同地加强了平台责任,平台责任“严格化”有愈演愈烈的趋势。
二、平台在社会生产中的地位
我们对平台治理的手段围绕着平台在社会生产中的地位展开。在平台责任的理论研究中,网络中介、基础设施、平台等术语经常被交替使用。但实际上,平台已经不是单纯的网络服务提供者角色,也不再局限于经济基础设施,而是一个兼具多重角色的社会经济组织概念。平台在社会生产中的地位主要体现为三个角色:
首先,平台是数据生产要素的提炼加工者。如果把数据比作是农作物小麦,平台则是小麦被收集、研磨、精炼为面粉的加工厂。对用户来说,数据只是互联网浏览的副产品,但对平台来说,则是重要的生产资料。各种各样的数据控制者都会以平台或者接入平台的方式参与数据活动。不论是公共服务还是商业服务者,都逐渐按照平台的模式,向不特定人开放介入,动态地收集数据,并利用算法进行分析和匹配,挖掘数据蕴含的价值。
其次,平台是数字经济的基础设施。传统的经济基础设施,比如公路、网络基站是看得见、摸得着的物理形态,它们作为公共基础设施为社会提供普遍性服务,保证基本服务质量并保持中立性。平台一方面作为数字经济基础设施,为社会提供存储、连接与计算等各类服务,另一方面平台作为竞争参与者通过算法利用这种基础设施获得竞争优势,因此也出现了利益的冲突而受到指责。如淘宝因为修改商家排序算法受到围攻,搜索引擎谷歌因为屏蔽搜索王而被起诉,本质都是平台这两种角色造成的利益冲突。
最后,平台也是数字经济交易的多边市场。平台是社会生产中各类生产资源链接、交易的多边市场。平台通过提供数字经济基础设施技术,以一站式入口方式将多个服务集成在一个客户端软件或应用程序上,实现多方资源在平台的链接与融合。如网约车平台早期依靠大量经济补贴,将乘客、司机与车辆吸引到平台上,通过推动市场交易便利化使市场信息更对称,形成了多边市场的网络效应,就进一步享有了不断扩大服务范围和市场数量的话语权。网约车平台可凭其海量乘客与司机以及车辆资源换取其更大让步,而因其司机与车辆资源的市场份额优势,也可通过算法个性化定价压榨更多的消费者剩余。
三、平台算法问责
我们可以看到,平台在这些角色中,算法分别扮演了不同的角色。所以平台治理的未来走向,理应聚焦于对算法的问责,尤其是针对事前的、主观的问责。刚才曾提到,算法使平台运行日益“自动化”,这一现象让平台事前的主观过错认定产生了困难,导致现有平台监管追责机理变得模糊化、治理节点滞后、责任设置不符合比例原则。人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则。因此,应穿透网络平台运行的“技术面纱”,将平台监管的触角和追责视角直接指向背后的算法责任。那如何对平台进行主观方面的问责呢?在此跟大家分享三点:
首先,在事前阶段,通过算法备案制度,对平台算法的过错点进行事前固定。平台因为算法被问责,通常是因为没有履行法律和道德义务,以及无法向利益相关方作出解释并证明自己没有主观过错。合理的平台算法问责离不开清晰的主观过错认定,通过算法评估、备案与审计对平台事前和运行中的问责点进行固定,能够有效评估平台是否可以评估、控制、纠正算法带来的危害。
其次,在过错的事后认定阶段,设置独立的算法解释环节。监管部门可依据算法事前备案内容,来判断平台是否具有故意或过失的主观过错,并结合客观的损害结果直接进行行政处罚与问责。在此过程中平台需进行算法解释,算法解释是认定主观过错进行平台问责的必经程序。解释环节不仅具有行政程序上的必要性、功能上的必要性,这个环节本身也理应成为监管考察的对象。
最后,在法律责任方面,应根据平台主观过错的程度轻重分层次设置。对于故意和过失的平台算法的主观过错,施以主客观相一致的实质责任。对于提供虚假算法备案与虚假解释的平台,则施加类似于证券虚假陈述责任的虚假备案与虚假解释责任。
如何打造“负责任”的人工智能?平台的算法问责应该是制度建设迈出的第一步。平台算法问责制的目标不是要实现完美无误的算法,而是要将风险降至最低——正如汽车安全标准不要求汽车百分之百安全,而是尽可能合理地安全一样。如何建立具备足够的包容之心和适应能力的动态治理机制,是人工智能时代的学者和政策制定者必须思考的问题。
作者介绍:
张凌寒:法学博士,中国政法大学数据法治研究院教授,博士生导师。兼任:中国法学会网络与信息法学研究会理事,公安部网络安全法律咨询委员会委员,工信部信息通信科学技术委员会专家委员,上海市人工智能伦理与治理委员会专家委员,《人工智能法(学者建议稿)》起草专家组牵头专家。曾任东北师范大学副教授 、北京科技大学文法学院副教授。张凌寒研究方向为民商法、数据法,近年来专注人工智能(算法)、数据和平台治理等法律问题的研究,多年来深度参与我国该领域监管工作咨询、法律法规和政策文件起草、双多边交流工作。主持国家社科基金重点项目和一般项目、司法部重点项目、教育部、最高人民法院、中国法学会、博士后基金等人文社科项目。在《中国社会科学》《中国法学》等核心期刊共计发表论文数十余篇,其中多篇被《新华文摘》《中国社会科学文摘》《高等学校文科学术文摘》《人大报刊复印资料》等全文转载,连续多年被评为“高产高被引作者”;出版专著《网络虚拟财产侵权责任研究》《权力之治:人工智能时代的算法规制》等多部著作,并获第九届董必武青年法学成果奖;参与中央网信办、外交部、国家发改委、工信部、科技部、商务部、国家数据局、最高人民法院等多部门数字经济、人工智能(算法)治理等多项法律法规和政策文件起草、监管咨询、双多边交流工作。2023年被任命为联合国高级别人工智能咨询机构(UN High Level Advisory Body on AI)专家,2024年入选《时代周刊(TIMES)》“世界AI领域最具影响力100人”。
邀请老师演讲、授课请致电:19821197419 阎老师[微信同号]
免责声明:以上内容(包括文字、图片、视频)为用户上传并发布,本平台仅提供信息存储服务。如涉及版权问题,请联系我们并提供版权证明,我们将立即删除!
手机:19821197419
地址:上海市闵行区莲花南路1951号