“经常接受较远接驾距离的网约车用户,下次派车单显示的车大概率挺远;如果叫不到网约车经常加钱,叫到性价比高的车的几率貌似就减少了;刷短视频的用户,好像永远能无止尽地刷到自己喜欢的内容……”全国政协委员、金杜律师事务所高级合伙人张毅说,这样的例子如今不胜枚举。
“人工智能时代,我们都活在算法里,在各种应用场景里接受各种算法的结果。”他说,“但算法是很难理解的技术,又掌握在人工智能公司手里。监管部门怎么才能把算法管得更好,这和每个人息息相关。”
2024年全国两会召开在即,张毅提交了一份《关于进一步完善人工智能算法治理体系的提案》。他表示,ChatGPT、Sora引发全球人工智能热潮,算法技术全面步入应用阶段,在推动生产力的同时也引发了诸如算法歧视、算法黑箱、信息茧房、算法霸权等法律甚至伦理的一系列问题。如何在促进发展的同时,更好完善人工智能算法治理体系,监管手段和能力如何提升,对中国相关产业的发展和国家治理能力现代化至关重要。
全国政协委员、金杜律师事务所高级合伙人张毅 受访者供图
多次呼叫网约车,打听系统派单和调度情况
“算法是什么,怎么运作,如何更好地监管?”
带着这个疑问,2023年全国两会后,张毅着手调研人工智能算法治理,一方面了解算法发展和中国目前的算法监管体系,梳理相关法律法规,搜集了大量资料;另一方面进行各种实地调研,与大量行业内的专家学者、技术人员、监管机构以及各类人工智能算法的用户交流。
比如,为了了解网约车平台使用算法的输出结果,他多次呼叫网约车,乘车时留心和司机聊天,打听系统实际派单和调度的情况。他发现,平台利用大数据给用户画像,然后自动匹配订单,同样的距离对不同用户显示的价格可能也不一样,“跟网约车平台沟通,平台说后台有上亿参数,调整哪些参数可以达到一个更公平的结果,连他们的技术人员都说难。”类似问题在各种APP上广泛存在。
如何应对新技术带来的监管新问题?张毅指出,针对新事物,政策和监管规定有天然的滞后性。他分析,第一,当前相关管理规定主要为部门规章、规范性文件和推荐性国家标准,法律效力较低。第二,监管客体仅限于民商事主体提供算法服务。第三,法律责任上多为框架化、倡导性原则,导致算法治理内容与违法侵权间未形成充分对应关系。第四,实践中主要通过算法备案和生成式人工智能(大模型)备案两项制度作为问责起点,但大模型备案尚在“实验期”,缺乏成熟规则指引。受限于部门规章的效力层级,未形成算法问责完整架构。第五,在责任主体上,未对“服务提供者”等概念进行明确划分,不足以应对实践中复杂角色定位,也造成监管难以问责。
此外,中国尚未设立统一的算法监管机构,依据《生成式人工智能服务管理暂行办法》,网信、发改、工信、教育、公安、广电等均有权对其职权范围内的算法问题进行监管。部门化的监管格局对综合型算法监管时容易产生监管竞合,但对新型算法又容易出现监管真空。
张毅表示,在实际案例中,算法侵害的认定和维权都很困难。算法提供者拥有信息资源和技术优势,算法机制和决策过程不可解释或难以理解等原因,被算法侵害对象面临“理解难、取证难”问题,而执法者也面临“认定难”问题。
ChatGPT、Sora等生成式人工智能技术(AIGC)发展迅猛,也会带来挑战。张毅称,AIGC大模型具有基于海量数据进行自学习特性,迭代快,其在垂类领域应用也在快速多样化,难以为现有监管体系和技术或工具覆盖,从而产生监管真空或失焦的情况。
尽快出台《人工智能法》,探索将人工智能技术用于人工智能监管
针对上述问题,张毅在提案中建议,尽快推进《人工智能法》的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。
“要让平台把算法的逻辑过程解释清楚。要平衡技术和道德伦理、社会影响等因素。”张毅说。
对于监管机构,他提议强化由网信牵头,发展改革、数据、工信、科技、教育、公安、广电等多部门共同参与的算法治理联席会议制度,完善“横向协同,纵向联动”算法治理格局。借助市场力量,外聘或者借调算法及人工智能领域的专家共同参与监管流程,补齐监管技术短板。引入“监管沙盒”制度,允许算法及人工智能企业在监管机构的监督下,于相对可控的环境内进行试验性的开发、测试和验证。此外,或可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。
人工智能算法治理最终要落实到用户权利保障上。张毅表示,要推进算法服务商以个人能够理解方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则,减少专业术语,便于用户理解和决策。要求算法服务商在个人用户决定选择拒绝使用算法服务的情况下,进一步优化用户便捷关闭算法服务的选项。
另外,拓展算法侵害行为维权路径与责任模式,增强用户维权力量。建议在算法侵权的诉讼中采取“过错推定”归责原则,实行“举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系,以及无过错承担举证责任。探索人工智能算法领域的民事公益诉讼制度。此外,不宜局限于要求具体损害结果的责任模式,可考虑综合考量训练数据、科技伦理等多维度规定算法侵害行为的违法责任,增强源头治理,形成责任闭环。