拜登政府关于人工智能的行政命令

关于人工智能使用规则的讨论已经变得非常拥挤。英国将在本周晚些时候举办人工智能安全峰会,欧盟正在推进其人工智能法案以规范人工智能,联合国正在制定数字契约,经济合作与发展组织和G7已经发布了指导方针,而公共和私营部门关于管理人工智能风险的会议也不计其数。斯坦福大学发现,仅在2022年,全球127个不同国家通过了与人工智能相关的37项法律。这些指导方针大多或多或少地说了同样的事情;即所有人都必须权衡人工智能系统的潜在风险与新技术可能带来的经济和社会利益之间的风险。美国是这个拥挤领域的最新参与者,拜登政府发布了《关于安全、可靠和值得信赖的人工智能的行政命令》。美国在开发人工智能技术方面处于领先地位(这也是一个拥挤的领域),因此这些规则具有重大意义,尽管并非总是具有开创性。这项行政命令是理性的,它避免使用“存在风险”等词汇,而是专注于具体问题——安全和保密、隐私、歧视。它管理风险的方法是增加透明度并使用测试、工具和标准。最近几个月,许多联邦机构都在推进与人工智能相关的规定。这项行政命令建立了一个要求参与人工智能规则制定的要求,这一要求自2019年2月特朗普总统的最初命令以来一直滞后。也许它的最显著特点是它采用了行政主导的监管方法,与欧盟的立法方法形成对比。行政命令的关键要点这项行政命令的范围非常广泛。它非常强调为关键基础设施制定标准,并利用人工智能工具修复软件,以实现国家网络安全战略设定的目标,并认识到人工智能的潜在好处。一个重要的新要求是为联邦资助的生物合成项目应用标准,许多专家认为这是人工智能最有可能在短期内带来风险的领域。将标准限制在联邦资助项目中也限制了其范围,但在这个领域和其他领域,行政命令强调了在减少人工智能使用风险方面国际合作的必要性。将许多行政命令的指导方针和法律与国际伙伴协调一致可能是政府能够采取的最重要任务之一。除非国会在行政命令中的监管原则上发生重大变化,否则美国几乎可以肯定不会遵循欧盟人工智能法案中嵌入的风险分类。行政命令中的原则与欧盟人工智能法案的隐私政策不兼容,而行政命令在隐私、公民权利和工人权利方面的措辞与欧盟的方法一致。行政命令的另一个重要组成部分是其对“红队测试”的关注。红队测试是对潜在漏洞或安全疏忽进行压力测试。根据《国防生产法》,行政命令规定“开发任何对国家安全、国家经济安全或国家公共卫生和安全构成严重风险的基础模型的公司,在训练模型时必须通知联邦政府,并必须共享所有红队安全测试的结果。”尽管这一规定可能会引起私营部门的反对,他们可能会声称这些措施将导致商业机密的泄露,但这一政策将鼓励私营部门开发人员更加认真地考虑其产品的净效应。然而,这一部分中还融入了政府经济安全议程日益蔓延的“使命蔓延”现象,该议程将经济和贸易政策与国家安全目标结合在一起,在当今更为分散、分散和数字化的环境中,这可能随着时间的推移被证明是明智的。一些提出移民改革的人不怕将美中技术竞争与为熟练外国人才提供更多签证联系起来。有许多世界一流的人工智能研究人员渴望加入美国的大学和人工智能实验室,但行政命令计划现代化签证流程,虽然是一个受欢迎的改进,但如果不增加高技能申请人的名额,这并不会带来根本性的改变。行政命令提出了人工智能将带来的许多社会问题,例如歧视风险和对工人的影响,但实际上并没有解决这些问题。关于歧视和工人的部分呼吁进行研究和工作,以制定原则和最佳实践。其他部分,如创新部分,回应了政府的一些重要主题,如帮助小企业和鼓励联邦贸易委员会。这些想法没有与任何具体行动联系起来。对于社交媒体时代一些最持久的问题,如内容管理、错误信息和在线骚扰之间的联系,没有简单的解决方案,这些问题反映了社会而不是通过行政行动解决的问题。行政命令中的大部分行动需要进一步发展,因此行政命令既是一项工作计划,也是一项规则。国会和人工智能监管国会是使人工智能更安全方面取得进展的最大障碍。行政命令具有法律效力,但它们仅限于国会已经批准的权限。虽然一些行政机构相信它们现有的权限足以监管人工智能,但在其他情况下,特别是在隐私方面,除非国会通过立法,否则行政命令无法实现太多成果,而这是不太可能的。到目前为止,国会已经放弃了对隐私进行监管的角色。相反,加利福尼亚州的消费者隐私法已成为州隐私政策拼图中的最大组成部分。更广泛地说,依赖行政权力来监管人工智能意味着一个重大障碍,因为国会无法对先进数字技术的采用可能导致的潜在危害进行立法。美国无法对社交媒体进行监管的教训是艰难的,美国立法者渴望避免人工智能变得越来越突出时出现类似的情况。国会无法就立法达成一致,迫使政府制定战略路线图,以便人手不足的美国机构能够实施。行政命令的执行行政命令面临的另一个问题是如何执行。行政命令建立在私营部门巨头早期的自愿承诺基础上,但要实现这些变革,需要确保他们对这一议程的支持。在行政命令发布的同一天,G7领导人发表声明,宣布为AI生态系统中的所有AI参与者制定指导原则,并制定组织开发先进AI系统的行为准则。G7的做法与行政命令一致,呼吁进行红队测试和水印等认证方法。行政命令的事实表中的文本确认了补充和支持国际努力的目标,包括G7广岛AI进程。然而,广岛AI进程的焦点比行政命令更为狭窄,主要针对先进的基础模型和生成式AI。G7文件的独特之处在于它们是一份活动文件,旨在随着AI模型的发展而更新,这一重要方面考虑到了人工智能快速发展的速度。私营部门的一部分在很大程度上迅速支持了行政命令。微软总裁布拉德·史密斯在X上说:“今天的行政命令是AI技术治理的又一重要步骤……我们期待与美国官员合作,充分实现这一新兴技术的力量和潜力。”然而,由贸易协会和技术公司组成的联盟NetChoice发布了一份新闻稿,基本上谴责行政命令是一个“红色官僚主义愿望清单”,将损害人工智能市场,扼杀创新和投资,并最终损害美国作为技术领导者的地位。如果美国要监管人工智能,就需要确保私营部门和国际伙伴的持久支持。这并非易事,但如果失败,风险将很高。詹姆斯·A·刘易斯是战略与国际研究中心(CSIS)的高级副总裁,担任普利兹克讲座,并负责战略技术项目。艾米莉·本森是CSIS贸易和技术项目的主任,也是CSIS国际商务学院的高级研究员。迈克尔·弗兰克是CSIS瓦德瓦尼人工智能和先进技术中心的高级研究员。

原始來源:战略与国际研究中心

https://www.csis.org/analysis/biden-administrations-executive-order-artificial-intelligence