2023年12月8日,欧洲议会和欧盟成员国就全球首部监管人工智能的全面法规——欧盟《人工智能法案》(以下简称《AI法案》)初步达成一致。这标志着欧盟在建立完备的人工智能监管框架和规则方面迈出了领先全球关键的一步,因此被誉为“里程碑”式的立法成就。
然而,《AI法案》的形成之路却并不平坦。据报道,在法案制定过程中,生成式AI大模型的监管方式成为争议焦点。各方能最终达成一致的结果,体现出欧盟为平衡各方利益所做出的不懈努力。
中国目前主要依托国家网信办等部门今年7月发布的《生成式人工智能服务管理暂行办法》等基础法规,对语料安全、个人信息保护等方面进行规范,但尚需进一步明晰具体要求。此外,中国的监管体系相对分散,不同主管部门之间的协同性有待加强。欧盟《AI法案》有一些好的经验和做法值得中国借鉴。
语料使用:对个人信息使用明确规定须授权
相较于治理一般AI,大模型的规模更大、复杂性更高。大模型的复杂性带来了多方面的风险提升,包括数据滥用、虚假信息传播、隐私泄露、知识产权侵犯以及攻击性用途等问题,甚至有可能极化社会分歧,加剧社会不平等。与此同时,大模型的规模和复杂性也对其算法的透明度提出了更高要求。因此,当前对大模型的监管尤为重要。
在此背景下,欧盟《AI法案》提供了明确而详细的规范,从多方面为生成式人工智能大模型设定了清晰的监管要求,以有效保障用户的知识产权和个人信息安全。
其中,在大模型语料使用方面,《AI法案》规定,要求生成式人工智能服务提供者建立语料来源黑名单、评估来源的安全性,并确保语料的广泛性和可验证性。通过确立数据多样性和可追溯性的要求,法案为服务提供者提供了明确的操作指南,以规范行业行为、提高服务水平。
《AI法案》对使用包含个人信息的语料,明确规定获得授权同意的条件和标准。中国可以借鉴这一做法,以更好地加强数据隐私保护。在语料安全方面,欧盟法案对语料来源管理、语料内容过滤等都有细致而严格的规定,这将有助于提高生成式人工智能服务的安全水平。
监督抽检:及时发现和纠正安全问题
《AI法案》还特别强调了安全评估和监督抽检的必要性,要求生成式人工智能服务提供者在服务上线前和发生重大变更时均需安全评估,并定期监督抽检。这一双重机制有助于及时发现和纠正潜在的大模型安全问题。中国可借鉴并引入这一机制,通过安全评估和监督抽检,及时发现和解决潜在安全问题,提高监管效能。
更为重要的是,法案为生成式 AI 模型的透明度设置了特别义务。透明度义务适用于所有模型,具体包括遵守欧盟版权法;在“不损害商业机密”的情况下发布足够详细的训练数据概要;要求人工智能生成的内容必须做到能立即可识别等。对于前沿的模型,相关的合规义务还须纳入模型评估、跟踪系统风险、网络安全保护以及模型能耗报告。
监管与创新:在真实条件下测试人工智能系统
在平衡监管与创新方面,《AI法案》提出设立人工智能监管沙盒,为人工智能创新系统的开发、测试和验证建立受控环境。这一机制允许在真实条件下测试人工智能系统,为技术创新提供更多实践机会。并且,法案还规定了支持中小企业的行动清单和有限减损规定,以减轻其负担。
同时,《AI法案》还强调对生成式人工智能大模型的有效监管需要不同部门之间的合作与协同,以及广泛的公众参与,以确保监管体系的完备性和全面性。
ChatGPT等人工智能大模型的涌现让人类进入了新纪元。它们以前所未有的速度和规模改变着生活和工作方式,对传统产业、安全、社会伦理等方面的挑战也才刚刚开始。但我们的理解和管理仍处于初级阶段。因此,探寻AI大模型的有效监管路径,是中国政府的迫切任务之一。