《人工智能法案》的通过正值战略时刻。面对美国在人工智能领域取得的巨大技术进步,欧盟必须迅速建立起强有力的、具有域外效力的监管框架,以确立其在制定负责任数字发展国际标准方面的领先地位。 《人工智能法案》采用基于风险的方法,结合各种规定其可能更新的内容——特别是通过扩大被视为“高风险”的人工智能系统名单——使该法规具有特别的可持续性。此外,文本避免了某些陷阱;特别是,它规定了根据 GDPR 使用“敏感”数据的授权,以便识别和应对可能出现的算法偏差。
该文本重点关注人工智能系统的营销和调试,并规定了研发阶段的相对豁免,再加上不合规情况下对小型结构的罚款减少,这也将使企业能够继续创新,而不会给他们带来不成比例的行政负担。此外,《人工智能法案》的义务是以相对通用的方式制定的,这为企业在实际合规方面提供了一定的自由度,包括利用与个人数据保护相关的现有流程的可能性。
然而, 欧盟理事会批准的文本远非完美;尽管从技术上讲它仍然只是一 香港 WhatsApp 号码数据 项法规草案,但最终版本在几周后在官方公报上公布之前不太可能发生重大变化。尤其是几个关键定义缺乏精确性且存在多种解释,例如“人工智能系统”的定义主要基于模糊的“ 自主水平”概念,或者更为模糊的“通用人工智能模型”的定义,这是议会后来倡议添加的,它对应于任何 表现出 “显著的通用性”且能够“胜任” 执行 “ 广泛”任务的“人工智能模型” ,但法规并未具体说明这些术语的含义。
同样,分类标准也不能始终确定某个人工智能系统是否应被视为“高风险”。一些研究还显示,企业常用的人工智能应用中,近40%面临陷入“灰色地带”的风险。此外,法规起草有时较为笨拙,可能引入不一致之处和潜在漏洞,使得行为者(特别是在第三国设立的行为者)能够以可能违背文本精神的方式逃避《人工智能法案》的适用。
希望其中的一些不完善之处能够在该法规的最终版本发布之前得到解决。否则,就必须等待各国主管部门——或欧洲人工智能委员会——采取明确的指导方针来解决文本的缺陷……然而,由于《人工智能法》允许成员国指定具有异构背景的主管部门——因此可能会有不同的观点——联盟层面的统一做法远不能得到保证。最后,从政治角度来看,尽管《人工智能法案》明确反映了欧盟希望确立其在监管数字用途方面的领导者地位,但该法案的临时时间表在法案生效后三十六个月才能全面适用,最早也要到2027年,这为其他大国的行动留下了充足的时间。尤其是美国于10月30日发布第14110号行政命令《安全、可靠和值得信赖地开发和使用人工智能》,发出了强烈信号。诚然,该命令远未提供像欧洲人工智能法案那样全面的框架,但从今年起,该法案已对美国机构施加了义务。