欧盟人工智能法案:人工智能在平衡-分析

2025-05-22 22:47来源:本站

  

  

  梅格纳·普拉丹(Meghna Pradhan)著

  人工智能(AI)技术如今已渗透到现代生活的方方面面,人们对这种程度的担忧日益加剧。军事、医疗和金融等曾经依赖人类判断的关键部门,现在越来越多地依赖人工智能系统进行决策。随着这些系统变得越来越自治,人们对其决策的问责制、透明度和公平性的担忧也越来越多。人工智能系统的不可预测性已经标志着可能出现的问题,如强化偏见、“黑盒”决策、算法的非人性化和侵犯隐私等,这将人工智能的监管从考虑推向了必要。

  认识到这一点,许多国家试图制定有关人工智能的行为准则。因此,欧盟(EU)于2024年5月通过的《人工智能法案》(以下简称“AI法案”)是人工智能监管领域的一个重要里程碑。最近实施的法案是此类法律中的第一部,具有法律约束力的条款,以确保在欧盟境内销售和/或使用的人工智能产品的道德和法律使用,无论提供商或用户是否在欧盟境内。该法在全球舞台上设定了新的监管标准,在创新、治理和基本权利之间提供了平衡。

  人工智能法案于2021年4月首次提出,经过多次讨论,于2024年5月21日以压倒性多数获得批准。该法案将分阶段实施,自首次生效(2024年8月1日)起持续24个月。1

  《人工智能法案》将基于产品的人工智能定义为:

  …一种基于机器的系统,其设计具有不同程度的自主性,在部署后可能表现出适应性,并且对于明确或隐含的目标,可以从接收到的输入推断出如何产生输出,如预测、内容、建议或决定,这些输出可以影响物理或虚拟环境

  该立法主要是出于消费者安全的考虑来进行人工智能监管。它对使用人工智能的各种产品进行了“基于风险”的分级分类。在这里,风险指的是“伤害发生的可能性和伤害的严重程度的结合”从本质上讲,这意味着不同的人工智能产品有不同程度的审查,基于它们构成的“风险”。主要有三个级别的风险,即。

  不可接受的风险

  这些风险包括开发或使用人工智能系统,操纵人们做出他们本来不会做出的有害选择这些系统还可能包括使用人工智能进行无目标的面部图像抓取、某些预测性警务实践和社交评分。这些人工智能系统被认为对人类构成重大威胁,因此被欧盟人工智能法案禁止。

  高的风险

  其中包括人工智能用于医疗保健、教育、选举过程、工作筛选和关键基础设施管理的用例。这些特定的人工智能工具受制于特定的监管要求。

  有限公司/最小风险

  其中包括某些低风险的通用人工智能工具,如音乐推荐人工智能等。这些公司的监管要求不会减少到零,而且通常可以遵守各自公司采用的自愿行为准则。

  《人工智能法案》的范围包括投放市场、投入使用或在欧盟内部使用的每一个人工智能系统。就像2016年通过的欧盟数据隐私法《通用数据保护条例》(GDPR)一样,新法律的适用性不仅限于在欧盟境内运营的公司。这意味着任何供应商(指任何开发或委托人工智能系统并打算将其投放市场的实体)或部署者(在其授权下使用人工智能系统的任何实体,禁止个人使用)将人工智能系统投放市场或在欧盟范围内使用都受法律保护,即使他们属于非欧盟国家。应该指出的是,军事和研究被排除在法律的范围之外

  《人工智能法》还对违反该法的行为规定了分级惩罚措施。违规将被处以最高1500万欧元或全球年营业额3%的罚款,以较高者为准。有趣的是,对于中小型企业和初创企业,人工智能法案规定了一套不同的规则,罚款较低。这很可能在不压制创新可能性的情况下确保合规,创新在很大程度上是由初创企业生态系统驱动的。

  新的人工智能法案的理念是,必须在不损害人类利益的情况下促进人工智能的创新和使用。该规定为人工智能的开发和部署提供了一定程度的监督,从而确保了对欧盟公民的一定程度的问责制和透明度。

  然而,有一些问题可能会限制法律的适用性。因为人工智能的定义对当前和未来的技术潜力都有相当简化的看法。在人工智能中使用“智能”一词的基础是默认存在复杂行为和/或能力的可能性,而这些行为和/或能力不是初始输入的一部分。该定义假定目标——无论是显性的还是隐性的——是稳定的或可预测的。然而,在实践中,人工智能系统可能会“学习”或推断出可能导致意外后果的目标。因此,假设AI只会根据它从“输入”中推断出的内容采取行动是对AI的简化主义理解。

  虽然基于产品的方法已经在欧盟进行了尝试和测试,但人工智能并不像一个普通的产品,而是一个不断增长和变化的产品。在欧洲议会的讨论中,这个问题也得到了强烈的感受,尤其是当Chat-GPT等生成式人工智能应用出现时。这个应用程序的用例范围从良性、低风险的推荐到生成错误信息。用户测试还显示,在特定的提示下,这些生成式人工智能可能会在几分钟内从善意的答录机变成产生仇恨的言论,尽管程序员给它们附加了控制。网络安全公司Malwarebytes的高级研究员彼得·阿恩茨表示,

  许多指导方针都是基于过时的产品安全法规,这些法规很难转化为对正在发展的事物的法规。一把螺丝刀不会在一夜之间变成电锯,而一个友好的人工智能聊天机器人在几个小时内就变成了一个脾气暴躁的种族主义者

  也有人担心监管成本会抑制人工智能领域的竞争和创新。根据计算机与通信行业协会(CCIA Europe)的一项研究,数据访问受限、大公司与小公司之间的合作、大公司的杠杆行为和掠夺性收购可能会扼杀小公司和初创企业,特别是在生成人工智能领域

  为研究、国家安全和军事目的提供的人工智能例外也需要重新考虑。在研究方面,虽然监管框架不需要严格,但有必要对道德使用实施一些监督或一般行为准则,以免出现盗用,非法获取和不道德应用数据的情况(如剑桥分析公司丑闻)。

  还有人担心,国家安全方面的全面例外可能会导致欧盟给各国自由支配,实施监视国家,特别是针对边缘化社区。根据欧盟人工智能法案,这些技术仅在工作场所和教育环境中被归类为“不可接受的风险”。执法和移民当局很容易利用这一漏洞,为使用人工智能进行社会评分、生物识别监控和面部采集提供理由,这违背了该法案所宣称的确保基本人权的目标。虽然以国家安全为主权权利的理由将其排除在外是合理的,但本可以有一项条款鼓励各国制定一般指导方针(不具约束力),以符合道德和对人类敏感的方式在军事中利用人工智能。

  人工智能在我们生活中的扩散带来了一系列的好处和坏处。毫无疑问,关键决策部门在效率方面肯定受益于人工智能。然而,即使人工智能在人类生成的数据上进行训练,消除决策中的人为因素也会导致对可能威胁人类生命和尊严的偏见的担忧。还有问责制的问题,没有实际的意志或情感来指导机器的决策。

  在这种背景下,新的人工智能法案填补了当今人工智能使用的主要监管空白。它为人工智能分配了强有力的合规标准,并确保责任可以分配到应有的地方。这种技术上不可知的定义人工智能的方法也使人工智能无论如何发展都能经得起未来的考验。欧盟法律也可能试图重现GDPR的“布鲁塞尔效应”——一个通常用来表示欧盟通过自己的法规影响全球监管标准和政策的能力的术语——以便新的监管框架可以到位,以确保遵守欧盟法律,从而在一定程度上驯服人工智能的相对狂野西部的情况。

  然而,应该承认人工智能仍然是一项不断发展的技术。它仍有发展的空间,不可预测性的因素不仅在其职能中保持不变,而且在其发展轨迹中也是如此。尽管欧盟立法者已经提到,随着人工智能领域的发展,法律将会进行修订,但人们确实想知道谁将超越其他第一个人工智能系统,或者试图规范它们的法律。

  所表达的观点是作者的观点,并不一定反映Manohar Parrikar IDSA或印度政府的观点。

  关于作者:Meghna Pradhan女士,法律项目研究助理,国会议员

  来源:本文由Manohar Parrikar IDSA发表

  1.欧洲议会。

  《人工智能法案:欧洲议会通过具有里程碑意义的法律》

  ”,欧洲议会,2024年3月13日。2.

  “人工智能行为探索者”,欧盟人工智能法案。3.同上。4.马特·科辛斯基和马克·斯卡皮奇奥

  "

  欧盟的人工智能法案是什么n(欧盟人工智能法案)?

  ", IBM, 2024年6月20日。5.

  "

  人工智能(AI)法案:理事会最终批准首个全球人工智能规则欧洲理事会-欧盟理事会

  2024年5月21日。6.Ben Wodecki

  "

  欧盟人工智能法案生效:行业反应

  ",人工智能商业,2024年8月1日。7.帕斯卡尔?戴维斯

  ”

  欧盟新人工智能法案会扼杀欧洲的人工智能创新吗?一项新的研究表明可以

  ”,

  用2024年3月22日。

乐同网声明:未经许可,不得转载。