欧盟率先推动AI监管立法,专家:世界范围内存在“AI发展水平鸿沟”

新闻资讯2024-03-17 17:56:15橙橘网

欧盟率先推动AI监管立法,专家:世界范围内存在“AI发展水平鸿沟”

欧洲议会近日以压倒性票数通过《人工智能法案》,这标志着欧盟扫清了立法监管人工智能(AI)的最后障碍,法案中的相关条款将分阶段实施。

在欧盟率先为AI监管立法后,上海国际问题研究院研究员、网络空间国际治理研究中心秘书长鲁传颖向澎湃新闻(www.thepaper.cn)表示,欧盟是否能够在该领域起到带领作用,还有待验证。在法案尚未生效、本身面临创新和不足并存的情况下,这个举措能否缓解“AI威胁论”、推动各方在AI监管领域合作等尚无定论。


当地时间2024年3月13日,法国斯特拉斯堡,欧洲议会议员就人工智能法案进行投票。视觉中国 图

布鲁塞尔效应,还是陷阱?

2021年4月,欧盟委员会提出《人工智能法案》提案的谈判授权草案,将严格禁止“对人类安全造成不可接受风险的AI系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。当ChatGPT发布后引起投资热潮、公众出现对AI的狂热情绪时,该立法草案让欧盟立法者在AI领域占了先机。2023年12月,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议。

有分析称,欧洲议会通过《人工智能法案》,或许会为西方国家在AI治理方面奠定基调。但有相关企业担忧法案“走得太远”,而数字监管机构认为法案“做得还不够”。在法案通过前,欧盟立法者曾于3月12日进行辩论,当时有声音指出,欧盟在这个问题上还有许多重要的工作要做。

《华尔街日报》称,欧洲议会通过《人工智能法案》,表明欧盟是一个“有影响力的全球规则制定者”。美国有线电视新闻网(CNN)刊文指出,欧洲议会通过该法案,与美国形成鲜明对比。2023年,参议院多数党领袖舒默曾罕见地把该问题放到议程首位,但美国尚未在AI联邦立法方面取得任何有意义的进展。

对于欧盟是否能在AI监管领域起到带领作用,鲁传颖对澎湃新闻表示,由欧盟单方面制定的规则对国际规则和各国国内政策产生重要影响的现象被称为“布鲁塞尔效应”。一方面,法案的监管思路和创新举措对各国都具有一定的参考价值,另一方面,法案在处理对技术进步、产业发展的制约也受到了广泛质疑。因此,法案最终是“布鲁塞尔效应”还是“布鲁塞尔陷阱”还有待时间检验。

欧盟目前计划在欧洲委员会下属建立一个AI办公室。从实际的角度来看,这个办公室将是欧盟在AI监管领域的关键执法者,该机构有权要求发展生成式AI的公司提供有关信息,甚至有权能够阻止相关系统在欧盟运作。

在鲁传颖看来,法案既有创新之处,也面临着挑战和不足。“法案有三个比较重要的创新之处。第一是开启了AI监管进程。在这之前,AI监管一般都是纵向监管。横向监管是适用于所有部门和应用的法律规则,覆盖所有领域和人群,因此对法律的要求也更高,更难以达成共识。这也是为什么法案在强调严格监管的同时,也注重监管创新,例如鼓励各国开展‘沙盒测试’,给中小企业提供更多的便利和支持等。第二是建立了基于风险等级的监管体系。欧盟以人权和安全为基准把AI风险分为四个等级:禁止的行为、高风险系统、有限风险系统和最低风险系统。不同类别的AI系统需要遵守不同的监管要求。第三是为配合法案落地建立了一整套的执法体系和多层次的监督和执行机制,包括欧盟成员国的国家监管机构等。”

鲁传颖称,仅从文本角度来看,各方对于法案的质疑主要包括三个方面。一是法案没有完全反映AI技术的复杂性。法案追求的确定性,与AI技术存在的不确定性之间存在一定矛盾。对于一个快速发展的战略性技术,尽管安全至关重要,但过多的资源投入到安全中会影响技术的进步。

二是法案监管思路和范畴跟不上快速迭代的AI技术。尽管法案以风险等级划分来实施监管,但技术的进步会让不同风险等级之间的界限不断打破。AI技术的快速进步有可能导致投入大量人力、物力的法案尚未生效就已经落后。

三是监管和创新之间的平衡问题。法案主要针对高风险的AI系统,这些要求给AI的开发和创新带来一定的负担和障碍。对于大企业而言,面临着消极和积极两个方面的影响。消极面是大量合规要求会阻碍技术的进一步发展和市场拓展,积极面则是合规门槛高企会阻止更多企业进入AI领域,有助于形成垄断。这导致了一些中小型的AI企业或研究机构的不公平,它们难以承担相应的合规成本和风险。

欧盟法案遇上“AI威胁论”

CNN日前报道称,美国国务院委托Gladstone AI公司撰写的一份报告表明,AI可能对人类构成“灭绝级”威胁,美国必须进行干预。根据这份报告,最先进的AI系统可能被用作武器、AI实验室担忧对开发系统“失去控制”,且在AI方面存在“军备竞赛”,为此报告呼吁采取措施应对这个威胁,包括实施紧急监管保障措施等。

对于AI“威胁论”,复旦大学新闻传播学院教授邓建国表示,根据这份报告中的“AI威胁”,目前看到的原因有几个:一是AI日益强大,但其运行原理如黑箱,连专家都很难解释清楚,更难预测其结果,而人类对“不可知之物”容易产生恐惧。二是AI的底层逻辑偏理性,人类一旦启动它,它很可能按照绝对理性的逻辑或者自说自话地执行下去,哪怕以牺牲人类为代价。

比如所谓的“回形针效应”,指的是如果一个AI系统的目标被设定为最大化某个特定目标,那么它很可能会忽略了其他因素,疯狂、彻底、不惜一切代价地去实现这个目标,比如调动世界一切资源(包括电力和算力)以生产尽量多的“回形针”。三是担心AI不加区别地扩散,会被一些国家或组织利用威胁到欧美的社会舆论和国家安全。比如2016年,(美国前总统)特朗普的团队曾在剑桥数据分析公司的帮助下,非法获得了8000万脸书用户的信息,并向他们精准投放了特朗普的正面竞选信息,被认为干扰了选举。今天的AI比社交机器人更为强大,干扰选民认知和造成国家安全危机的能力更强。四是AI容易造成个人数据不当利用和版权侵犯等。

《人工智能法案》能否暂缓外界对于“AI威胁论”的担忧?邓建国认为,从整体来看,不同的人群对AI风险有不同的立场,其背后有不同的原因。在一定程度上,欧洲议会通过《人工智能法案》回应了这些原因,因此一定程度上能够缓解外界对于AI会带来威胁的担心。但普通人对AI风险的恐惧和乐观,在于他们接触了哪些媒介内容,所以不必太较真。

法案能否缓解冲击、推动合作?

美联社分析称,今年是“超级大选年”,但近几个月来,AI中的“深度伪造”技术已经在社交媒体上对欧洲和亚洲多地的选举产生了影响,这种情况被认为“是一个警钟”。 科技巨头谷歌日前表示,将限制旗下AI聊天机器人Gemini回答有关今年全球各地大选的问题,以避免出现失误的可能。此外,欧盟也向脸书、X(原推特)等社交平台正式发出通知,要求这些平台认识到AI对选举会构成的风险,以及说明平台如何应对、防范这些风险。

欧盟率先为AI治理立法,是否能从监管的角度缓解新技术带来的冲击,以及推动各方就这个问题的合作?鲁传颖认为,从监管对象来看,法案主要针对AI系统的开发者,与《通用数据条例》涉及到的广泛数据收集者、存储者和处理者相比,门槛要高得多。因此,法案的监管对象更像是欧盟《数字服务法》中所指出的“守门人”。

从监管效果角度来看,法案仅仅是一个开始,其落地举措还需要大量的技术标准和最佳实践的支持。也就是说,法案最终落地还要依靠国际标准组织的成果,这也影响了“布鲁塞尔效应”的发挥。

在推动各方合作的层面,邓建国分析称,“在世界范围内存在着一个‘AI发展水平鸿沟’,导致’AI风险感知鸿沟’的出现。即使在同一国家内部,不同行业对AI风险的曝光度不同,所以感知也不同。”

“我们可以用‘涟漪’来比喻。在AI 发展和风险感知上,西方发达国家处于涟漪的中心,其他国家和地区位于AI的影响或威胁的中间或者外围。在涟漪不同的位置,AI风险感是分布不均。如霍金、库兹韦尔、辛顿、马斯克等人都担心AI风险,是因为他们处于涟漪的中心。”

邓建国认为,合作需要基础,比如共识、信任和对价资源等。没有这些前提条件,很难谈合作。如前所述,AI在不同地区发展的水平、带来的影响和风险认知不同。目前各方在AI发展上存在着越来越大的差距,加上一些国家治理AI是出于国家安全考虑,甚至有偏冷战和敌我思维,因此各方在AI治理上实现有诚意的合作的可能性很小。

相关推荐

猜你喜欢

大家正在看