人工智能的真正风险

人工智能(AI)并不是真正的新事物。这项技术自上世纪50年代以来就存在,AI工具已经成为企业的必备品。制造业、金融业和与消费者互动的研究公司都使用AI来管理客户并提高生产力。AI工具将重塑经济,但这将是一个迭代的过程,创新者将找到更好的方式来利用AI获得竞争优势,就像互联网花了多年时间才能收获好处一样。AI是一种能够提高其他工具生产力的工具。对AI的第一波兴奋在20世纪80年代达到了高峰。现在,“生成式AI”或GenAI引发了最新一轮关注。ChatGPT是生成式AI的一个著名例子。它经过大量数据库的训练,可以在没有人类干预的情况下生成文本、软件和视频。AI依赖于从网络中获取数据,这对现有的知识产权法律构成了挑战,有人担心可能没有足够的新数据可供获取。生成式AI可以看起来像人类,因为它可以直接与人们互动,但这只是一种幻觉。Meta的首席AI科学家甚至表示,AI不如猫聪明,甚至无法弄清楚如何加载洗碗机。矛盾的是,AI既带来了狂喜,又带来了忧郁。AI存在一个金融泡沫(尽管可能即将破裂)。过去一年,对AI技术的投资增加了四倍,但与此同时伴随着一种焦虑的叙述。人们普遍担心AI将导致大规模失业。这是一个关于自动化将导致一些工作消失的担忧,这个担忧可以追溯到19世纪初工业化的第一天。英国工人曾袭击他们认为威胁到他们工作的机器和工厂。人们往往将自动化的风险与社会政策的失败混为一谈,即无法公平地分配更大生产力的成果。许多人知道凯恩斯在1930年写道,自动化创造的就业岗位比它消灭的岗位多。几十年后,他的观点仍然正确。工作将会改变,但会创造更多新的工作岗位,随之而来的是更多的财富和休闲时间。另一个担忧是AI将“觉醒”,变得有感知能力,并接管世界,甚至在这个过程中摧毁所有人类生命。这是过去一个世纪许多电影的情节,人们应该对这些担忧持高度怀疑态度。埃隆·马斯克表示,AI是“对文明未来最大的风险之一”,而物理学家斯蒂芬·霍金警告说,“完全人工智能的发展可能意味着人类的终结”。AI安全中心将AI的风险与流行病或核战争的风险进行了比较。实际上,大多数研究人员对于AI是否会具备独立规划、欺骗和独立思考所需的能力以成为存在威胁存在分歧。对于“杀人机器人”也存在类似的担忧,这是指能够在战斗中独立行动而无需人类监督的自主设备。自主设备的发展进展自然会用于军事应用,并使武器更加精确和灵活。防空系统就是由于人类反应速度太慢而开发出来的自动化武器的例子。武器将会自动化,但杀人机器人并不存在,也许永远不会存在。它们面临与自动驾驶汽车相同的问题,即无法处理复杂的物理环境。AI已经存在恶意用途,尽管没有致命的。AI被用来放大“假新闻”的影响,加剧了互联网带来的政治动荡。社会已经看到了由AI生成的世界领导人说出他们从未真正说过的话的“深度伪造”视频。拜登总统在关于美国新的AI行政命令的讲话中开玩笑说到了这一点,该命令警告可能滥用AI来开发新的生物武器。但这些担忧反映了一些更深层次的社会焦虑,并类似于17世纪关于巫术的担忧,这些担忧得到了许多精英和专家的广泛认可。不太可能发生的情景反映了对战争的误解。技术优势与军事成功之间的关系是复杂的,其他因素比技术更重要。对于偏见和社会影响的类似担忧反映了对系统行为和偏见的存在的信念,这仍然是一个有争议的问题。在大多数情况下,未明言的假设是社会将建立工具并失去对其的控制。精英的认可并不能保证其真实性。17世纪的权威人士被薄弱的证据说服,认为老年人与撒旦发生肉体关系,并使用猫与其交流。一个可能的解释是,快速、广泛且似乎无法控制的变化阶段会引发焦虑,而巫术或AI等外部现象为此提供了一种出口。虽然这种解释并不令人满意,但对AI安全、偏见或主导地位的担忧实际上与关于疫苗的阴谋论是近亲,只是更受社会接受。为什么民主社会在过去三十年变得更加风险规避是一个更长的讨论,但风险规避的社会倾向会在没有危险的情况下感知到危险。围绕AI的讨论集中在需要制定道德准则以确保其以有原则的方式使用。英国举办了AI安全峰会。欧盟通过了一项AI法案来监管人工智能(甚至引发了法国总统马克龙对过度干预和对创新的风险的抱怨),经济合作与发展组织发布了管理AI风险的指南。所有这些准则都认识到需要在潜在的AI系统风险与失去新技术带来的经济和社会利益之间取得平衡。然而,过于关注潜在危险并在没有经验的情况下定义道德使用可能会不可避免地损害AI的经济增长潜力以及它将带来的研究和创新的好处。趋势是基于对潜在危害的预测制定对AI实施限制性规则,而不是基于实际危害。许多政府和研究人员低估了扼杀创新的容易程度,而创新需要一种不寻常的愿意承担风险的意愿。通过设置障碍和制造不合理的合规负担(当它们涉及未观察到或假设的担忧时是不合理的),政府将减少AI可能帮助创造的新产品和服务的数量,并阻止公司,特别是小型新公司进入该领域。决策者对尊重创新需求的承诺并不能弥补监管风险。这就是困境所在。自上世纪90年代以来,欧盟对数字技术的规定已经通过为创新者和投资者设置官僚障碍而损害了欧洲的经济增长。法国和德国等国家的GDP增长率仅为美国和中国的四分之一,因为其规定减缓了经济数字化的速度。这就是为什么欧盟既缺乏科技巨头又缺乏独角兽公司的原因。对于AI的新规定可能会使欧洲失去进一步的增长和创新,如果这些规定被复制,美国和其他世界其他国家也可能失去这些好处。这些焦虑预测背后的动机值得怀疑。可能是出于希望通过发表极端言论来获得公众关注。可能存在商业动机,有人猜测目前在AI领域领先的大公司希望利用监管来使潜在竞争对手处于不利地位。AI出现在国际事务恶化的时刻,人们对技术进步的观点发生了广泛而重大的变化。互联网作为最后一次重大技术变革,出现在一个对它将如何将世界变成战争结束、所有国家都在成为市场民主国家的道路上的乐观预测的千禧年时代。这是一种一厢情愿的想法,虽然对于AI的预测更加悲观,但它们并不更准确。更准确的结论是人类在预测技术未来方面表现不佳。自动化会导致两个多世纪以来人类劳动力被机器取代的过程的又一步。自动化继续改善生活水平和生活质量。在不忽视这些担忧的情况下,因为它们反映了更深层次的社会恐惧,强调风险是错过了重点。逃避技术的社会将失去改善的机会。对于决策者来说,AI的挑战在于找到如何最好地利用它来加速创新和提高生产力,以及如何公平地向所有公民提供生活水平的改善。这是需要解决的AI政策问题。詹姆斯·A·刘易斯(James A. Lewis)是华盛顿特区战略与国际研究中心(Center for Strategic and International Studies)的普利兹克讲座和战略技术项目主任。

原始來源:战略与国际研究中心

https://www.csis.org/analysis/real-risk-artificial-intelligence