美国有自愿性的 人工智能风险管理框架 , 为人工智能的安全、保障、隐私、公平和公民权利制定了标准 ,白宫还发布了 《人工智能权利法案》蓝图。 欧盟起草了 人工智能监管框架,根据风险对人工智能系统进行分类,并包括对高风险系统的评估和报告要求。 英国政府正在 要求现有监管机构制定基于行业的监管方法。 穆迪调查的风险与合规领导者对监管机构在人工智能方面的工作了解程度“较低”。
只有 15% 的人声称“非常”或“完全了解”现行法规,三分rcs 数据白俄罗斯之一的人表示他们一无所知。由于缺乏最终确定的法律,或由于缺乏沟通。但这与风险与合规领导的愿望形成鲜明对比,79% 的人表示有关人工智能使用的新法律对该行业很重要。这凸显了监管机构和行业之间对话与合作的必要性。一个让行业和立法者可以讨论这些问题的安全空间可能会有所帮助。 穆迪研究为监管机构提出的 6 点考虑 风险与合规专业人士想要什么 受访者认为监管机构应优先考虑数据隐私和保护标准(65%)、问责制和法律责任(62%)以及透明度和可解释性(62%)。
安全和偏见问题也被视为重要问题。 风险和合规专业人士还希望制定全球一致的规则,并要求监管机构要求透明度、人工监督和对基于人工智能的结果负责。规则还需要灵活和适应性强,以适应人工智能的快速发展。基于风险和原则的方法,而不是规定性法律,有助于促进打击金融犯罪的更好结果。 规则和政策应适应不同的用户要求,并注重结果和有效性。 企业抢占监管先机 负责任且合乎道德的人工智能政策已列入前瞻性组织的议程。