以意大利禁止chatgpt开始

再贴一篇文章:

ChatGPT技术潜在的政治安全风险
中国社会科学院March 30, 2023

2022年底,OpenAI 推出了新一代的人工智能大语言模型ChatGPT,成为全球用户迅速破亿的现象级应用。相比传统人工智能技术,以ChatGPT为代表的大模型表现出强大的语言理解交互能力、多领域内容生成能力、快速进化的涌现能力以及弱人工智能向强人工智能持续迈进的前景,引起了各界的强烈关注。随着智能时代数字世界和物理世界不断深度融合,持续演进的大模型技术深度嵌入国内和国际的政治、经济、社会诸领域成为大势所趋,对这一高歌猛进的技术的潜在政治和安全风险进行思考也日益紧迫。

1.政治决策面临新风险

数字时代的公共空间分散化和碎片化问题日益凸显。大语言模型基于互联网数据处理和深度学习技术,在未来的政治过程中能够通过充分汇总信息、确定目标集合、设计合理方案等方式,有力地辅助国家对多元社会进行系统性整合,加强政治决策的便捷性、科学性和包容性。然而,大模型技术增强国家治理能力的同时,也给政治决策带来一些隐含的风险。

一是政治决策机制重塑。伴随着大模型的普及化与应用化程度的深入,大模型凭借其无与伦比的信息收集处理能力,配合先进的算法,处理信息后给出的决策建议在相当程度上具有整合性和便利性,将不可避免地使某些政策制定者依赖大模型进行政治决策。在这种情况下,大模型实际上已经部分承担了政策建议甚至政治决策职能。如果政策制定者长期依赖大模型技术而不注重自身政治素养的提高,那么将不可避免地出现政策创新力匮乏的问题,进而降低整个国家的决策水平。

二是政治决策忽视偏好问题。大模型毕竟只是一种技术,在收集信息时只是出于单纯的收集目的。尽管大模型处理海量数据资源,且模型灵敏度会依靠日后训练与数据填补而提升,但政治决策对象毕竟是具备情感偏好的生命体,他们所喜好的政策未必就是最符合程序计算的政策。这就出现了一个极困难的问题——人工智能系统可能始终无法完全理解政治决策对象的情感诉求。因此,大模型依据惯例做出的政治建议或决策存在回应性不足的风险。

三是政治信任降低的风险。大模型深度进入政治生活后,无论是政治决策者抑或是政治诉求表达者均可利用该模型从事政治活动。在这种情况下,由于大模型输入语言的类人化程度极高,政治决策者难以判断收到的政治诉求是否出自真正的“人”之口,政治诉求表达者难以判断收到的政策回应是否真的源于“官员”本人,此时可能出现政治决策者与诉求表达者的双向信任危机。

2.舆论传播面临新挑战

大模型作为革命性的人工智能技术,将发挥显著的社会赋权功能,进一步提升普通民众在公共议题上的话语权,促进公众意见的传播和影响,推动社会群体和社会组织的组织能力提升。但由于大模型对公众意见和思想强大的影响力,也给国家内部和国际社会的舆论传播和治理带来不小的挑战。

第一,错误信息和观点将潜移默化引导公众舆论。大模型的算法和数据具有鲁棒性、透明度、可解释性、可靠性欠缺等问题,“大数据+海量参数+大算力”提升了模型的总体拟人表现,但并不是和人一样理解与思考,有时无法从事实上区分信息的真实性,难以识别数据隐含的偏见和毒性,从而产生虚假的、误导性的或低质量的结果。这些错误和偏见往往会影响人的政治判断和政治选择,甚至隐蔽地塑造和误导公众舆论,冲击主流价值和观念。

第二,大语言模型可能弱化国家阐释权。阐释权代表了国家在引导社会舆论、宣扬社会思想方面的权威性,是国家软实力的重要组成。随着大模型全面嵌入社会并参与某些重大概念与事件的解释,大模型由于自身的普及性和便利性,可能使社会公众习惯于第一时间寻求大模型解释路径。这种先入为主性叠加大模型输出系统的高度拟人与完备化,将严重削弱官方解释的说服力,削弱国家阐释的权威性。

第三,大语言模型沦为意识形态武器。大模型技术在算力、算法、数据等方面的高门槛容易导致少数国家的技术垄断,可能被当作意识形态战争或颜色革命的工具。一国可针对他国公众心理弱点来供给带有政治目的与本国意识形态偏好的内容产品,进而影响目标国公众的政治判断和政治选择,间接把控政治走向,对目标国意识形态安全阵地进行隐形渗透。

3.技术监管面临新难度

大语言模型广泛应用后,国家和政府需要应对的数据压力呈几何级增长,而且伴随着输出语言的高度拟人化,想要对这些信息进行真伪分辨极其困难。掌握大语言模型技术的科技公司在社会中的话语权越来越大,使得国家在大模型时代进行数字治理和技术监管的难度大增。

首先,监管需求和监管能力之间存在差距。随着大模型技术的逐渐发展,其输出错误或具备隐晦意识形态宣传的话语表述,在大多数情况下难以为非专业人士所识别。此外,当ChatGPT等大模型以网络水军的方式参与公共事务,并蓄意就某一政治事件输出具备意识形态色彩的错误事实时,庞大的数据体量会造成不小的监管压力。如果政府部门无法及时对网络环境进行正确监管,对错误信息进行分辨处理,这种由于监管缺口而在公众间广泛传播的错误信息可能造成严重的意识形态风险。

其次,技术垄断侵蚀国家治理能力。大语言模型技术的创造、发展和普及都离不开专业的科技企业,特别是科技巨头。这些企业以委托治理的方式参与国家治理目标的实现。但是大语言模型必需的算法、算力、数据三大数字要素被少数头部科技企业掌握,先行优势扩大规模效应,这些企业必然会形成技术垄断趋势。走向寡头化的科技巨无霸依赖算法权力和运作效率,模糊国家的权力边界,甚至取代国家的部分功能,带来“国家空心化”的危险。

4.深刻影响动荡变革期的国际体系

智能时代国际科技竞争日益激烈,科技水平和创新能力是国家权力的核心要素。大模型技术作为人工智能领域的划时代革新,其发展和扩散对已经进入新的动荡变革期的国际体系具有深刻影响。

一方面,大模型技术很可能会强化科技政治极化对抗。大模型架构所需的高数据量与技术储备特质决定其存在被科技大国垄断的趋势。在时下激烈的技术竞争下,技术大国通常选择护持已有技术避免对手国获取,而无力参与大模型架构的技术弱国只能被迫选边站队。部分发达国家近年来通过限制芯片等遏制发展中国家的科技和产业发展的事例表明,国际技术政治的竞争性进一步加剧,国际秩序坠入两极对抗的可能性上升。

另一方面,大模型技术可能会助推价值观联盟形成。掌握大模型技术的国家基本上都是发达国家,这种技术霸权加剧了发展中国家对发达国家的技术依赖。同时,由于大模型技术的重要意义,使得发达国家进一步加大了对自身价值优越感的传播,强化了西方价值观隐蔽的支配地位,使发达国家更容易利用大模型工具推动价值观联盟形成。

(作者单位:华东政法大学政府管理学院)

4 个赞

CAIDP 请求美国联邦贸易委员会(FTC)调查 OpenAI 公司并禁止该公司进一步发布 GPT-

I. 摘要

  • 对OpenAI公司的投诉

II. OpenAI公司和GPT-4

  • GPT-4产品的偏见、欺骗和危害隐私和公共安全的问题
  • 输出结果无法被证明或复制,没有在部署之前进行独立评估
  • OpenAI已经承认了“虚假信息和影响操作”、“传统和非传统武器的扩散”以及“网络安全”等特定危险

III. GPT-4的不透明性

  • 大型语言模型的不透明性加剧了这些危险
  • 可能注入大量意识形态错误的人工智能模型
  • GPT等大型语言模型训练数据中存在潜在偏见

IV. 结论

  • CAIDP对OpenAI公司提出了严重担忧,认为其产品GPT-4存在严重问题
2 个赞

4月3日,国新办就第六届数字中国建设峰会有关情况举行发布会。

国家发展和改革委员会创新和高技术发展司负责人孙伟在会上表示

“…在数据价值化方面,加快培育数据标注、清洗、聚合等大数据产业,积极探索数据流通交易的新业态、新模式,激活数据要素价值潜力,实现数据要素红利向产业发展势能的充分转化。”

1 个赞

传德国也要对chatgpt进行一定程度的管制

2 个赞

阿里云AI专家交流纪要0401

问:阿里大模型的发布节奏,以及大致水平?

答:阿里巴巴达摩院主要来牵头去做大模型的相关的研究和进展,大概是在22年的时候,我们其实就已经发布了我们自己的这种自然语言理解的大模型,一个叫m6,一个叫 plug。 M6的话基本是能够支持多模态的这种AI模型,比如说文字生成图片,文字生成语音,文字生成视频这种模型,但是我们大模型相比来讲,GPT3.5这种水平在参数量和整体规模上其实还是要小一点。所以在大模型目前我们这种模型可能也就叫做中模型。

达摩院顶层的领导下达了命令,整个团队约有100个人去开始去做相关大模型的迭代和升级,一方面是自己在复现GPT的水平,一方面是要迭代把我们的m6和plug迭代到能够对标到GPT的水平。目前来看根据我们得到的一些反馈,我们自己的这种m6的一些自然语言理解的能力,目前还不能对标到GPT3.5与GPT3.5大约还得有个一年半左右差距。

所以在我们预计今年在下半年云栖大会上的时候,应该会有m6的一些最新的模型的发布或者是进展,可能大概在GPT2.5左右的水平。

语料积累不足。现有的大型语言模型在文本清洗和筛选方面存在一些限制,因此需要对现有模型进行升级和迭代,以适应不同领域的数据需求。例如,要将模型应用于军事、旅游文化、政治等领域,需要进行更多的数据收集和人工标注,以达到更高的准确性和效率。同时,大型语言模型的成熟也将带来更多的商业机会,例如在天猫淘宝、高德地图等应用中的搜索和客服机器人等领域。此外,如果大型语言模型足够成熟,可能会释放出API,由合作伙伴接入,从而实现生态层面的垄断。

问:预计阿里大模型与文心一言对比?同时您认为制约我们大模型发展的是最主要是这个语料,还是模型一开始的这种路径偏离,您认为哪一个是制约我们发展的一个最重要的原因?

答:我们认为百度做得虽然不是那么智能,但还是相当不错的。在国内,它可能算是第一名。我们认为它还有很大的提升空间。文心一言虽然有一定的实用性,但离达到GPT-3水平还有一定差距。不过,我们觉得它至少可以达到GPT-2.5水平,如果未来能够持续迭代和优化,可能会达到GPT-3.5的水平。数据积累对于百度来说是一个优势,尤其是在搜索领域。百度在知识库方面有很多年的积累,包括百度知道等。与文心一言不同,其模型架构基于Transformer,而文心一言则基于Bert。如何在文心一言的基础上实现更智能的迭代,可能是一个挑战,需要达摩院的同学来解决。

问:阿里如何后发追上?会采取怎样的打法?
答:我们可以提供的方案主要有两种,一种是我们推出的模型效果相对较好,可以与集团内部的产品结合,例如天猫、淘宝和高德地图的搜索业务。这将为搜索引擎带来更新的商业模式,并取代以前的商业模式。此外,我们还可以输出我们自己的API,并向合作伙伴或渠道商收费。这些合作伙伴将使用我们的API,并体现出他们的客户,这些客户是从ToC端产生的。大多数客户都有自己的APP和网站,这些客户可以通过他们的APP和网站获取流量。不同的客户可以使用不同的API,这意味着厂商可以在生态系统中形成垄断。目前,已有一些厂商尝试将我们的API集成到他们的产品中,但进展不如预期快。对于我们的API,它们可能会在特定领域上有所帮助,例如电商、搜索和推荐,并带来更好的商业模式。

问:阿里目前AI算力储备情况?
答:阿里国内AI算力储备最多,然后以次为:字节、百度、腾讯。
阿里云现在云上至少应该有上万片的A100 了,整体至少能够达到10万片,集团的话应该会是阿里云5 倍的这样的一个量级。
达摩院、天猫、淘宝的算力资源都是集团内资源使用。
阿里云这块今年增速会有30-50%。有个别8-9个客户会有复现GPT的需求,提出了大规模AI算力需求,我们以云的方式给。
百度年初紧急下单3000台 8卡的A800服务器,2.4万张卡,我预计全年百度会有A-H800共5万张的需求。
阿里云需求不会这么多,去年采购2万多,今年可能采购量会下降。预计云上就1万张左右,其中6000张是H800。此外阿里云也会用到平头哥这种自研的,每年大概3000张去采购。
从除此之外,阿里云也会选择国产芯片的一家,看是否在云上商业化。

问:阿里云采购的哪家国产芯片,为何选择?
答:选择的是寒武纪MLU370,主要是性能基本过关(A100的60-70%),检测合格,态度积极,愿意对接,服务贴身。今年会采购大概2000张的水平,主要用在一些CV等小模型的训练或推理上。寒武纪MLU 370没有供货的风险,后续的MLU590也许就会有了。

对于壁仞等,宣传上不错,但拿不到实测的卡,流片大约都是今年4-6月,量产半年后。而且壁仞4月要流片的卡,不能支持FP64,互通带宽不支持8卡,支持最多4卡,采用NV bridge方式,达到180GB水平。 8卡用PCIe方式只能做到32GB,弱点显著。

针对海光,我们技术人员也有看好的,参数也足够支撑训练,但可能由于海光因产能等因素,可能更侧重满足国有算力那边的需求。同时,集团层面是否对接,不清楚。

问:海光为何会不给样片测试?出于什么考虑?海光DCU的量应该是够的。
答:海光的话,我们确实没有拿到他的样卡,就是不知道为什么,我们也得知很多国产化的订单他们都中标且供货,但我们跟他对接的时候,好像反正是各种各样的问题,就是没有测起来。
我们内部其实也有一些同学是支持海光深算1号的,但是一方面当时寒武纪还没被拉入黑名单,而海光被拉入了黑名单,然后我们其实也有一定的担心,就是在阿里云上了之后,可能会给自己引火烧身,所以这方面也是我们考量的一个因素。最后反正就没采海光后期的供货,可能也会成问题,这也是我们考量的原因之一。

不知道他们是手头是不是比较重要的这种国产化的项目,或者订单的交付还是没有人力来支持。我们也不是特别知道,可能他们团队也就几百个人吧,就是没有这个时间周期。
总体上,在其他国产AI芯片竞争上,海光好像不是很在意这个云上的这个市场。

问:腾讯大模型的进展?
答:有听到是混元这个模型继续迭代,有大概100人左右做GPT复现以及自我模型迭代。应该会比我们的早,猜测大概8月份会出。但应该只是支持文生文的场景。

问:目前降低算力成本的方式?
答:除了大模型,即使stable diffusion这种文生图模型,也消耗较小。stable diffusion模型一直在优化,以前一个推理任务一张A100、现在降级到一个推理任务一张V100。对于阿里这种巨头而言,V100的存货还是很多的。
同时,还会有一些针对模型的优化,或者加速软件,加快模型训练与推理。
最后,也可以对模型进行降级,降低精准度要求,比如从FP16降级为FP8,。

问:阿里目前对于AI大模型是不计成本的大力投入,还是考虑商业落地稳扎稳打?
答:大概率是稳扎稳打,现在拆分后,都要自负盈亏,压力蛮大的。

ChatGPT的一个推理的任务,大概所需要消耗的这个能力是5张A100在2秒钟之内做一次推理,大规模应用起来成本很高,冲击也很大。

问:华为盘古与昇腾如何看?
答:盘古大模型效果有待考证,并没有明确对标GPT,而是往B端去做。
同时因为受限制,只能用自己的昇腾,虽然昇腾910大概也有A100的70%水平(比寒武纪好),但算力的限制可能会制约大模型发展。

问:从CUDA兼容性角度,海光与寒武纪如何对比?
答:海光的CUDA兼容性更好,除了海光,其实阿里云产的 PPU 其实也在一定程度上能够做到CUDA兼容,与NV做绑定。

问:360的大模型如何看?
答:我们了解到,最近360向NV下了上千块A800的货。360语料可能比我们强,但最后能做出什么效果,需要时间验证。

问:目前跑在大模型上面的光模块架构会向英伟达推荐的方向去迭代吗?
答:我们不太会去走英伟达的架构,我们有自己的路线,其他大厂可能会走英伟达路线。
阿里云的公有云的层级上面,目前都是采用了阿里云自研的产品叫做DPU。我们自研的DPU其实现在已经迭代了几乎3.0或4.0的状态,支持双口100GB的水平。
那DPU的功能是用于在云上开发弹性裸金属,因为我们要把服务器做成云上的云服务器中间是有一层虚拟化的开发,那虚拟化之后这个物理机上的资源其实是有一定的损耗,CPU的核心数、内存的容量以及网络的带宽、硬盘的这个存储容量都会有所影响。那之所以搞DPU,是为了把这些虚拟化的资源都ofload到DPU上去,使得我们云上的这种云服务器的资源和线下的这种物理机的资源是整体的资源数量是一模一样的,是没有任何变化的。
那DPU的主要功能是在这里,那我们现在研发的第四代的这个DPU,它里面主要集成了ERDMA的这个能力,这个RDMA就是远程内存直接访问的意思,然后其实是主要应用在HPC的这个场景,然后这个E代表的是elastic,我们叫做弹性RDMA这个东西,那它其实是在以太网的架构下去跑ERDMA。也就是说我们希望在以太网的这个网卡、渲染交换机以及这种集群架构上去跑,类似于高性能计算的这种协议,能够把一些高性能计算的场景支持起来。所以我们大概率在公有云的这个场景,不太会去考量像Nvidia提供的这种集群架构,这是公有云的这个方式,从云上讲不支持,光模块数量没有明显增长,阿里网络架构不会改,光模块的规格也不太会改。
但百度云字节火山云可能会采纳英伟达的架构,取决于数量,目前只采纳300台H800,对应每台服务器9张网卡,每个卡一个线,一个线两个光模块,9张网卡一台服务器是18个光模块,300台是5400个光模块,如果集成架构往上扩,扩1000个节点的话,大概是3倍的增长。

问:看好BAT、字节等哪一个大模型?
答:第一还是百度文心,先发优势,其次可能是字节,因为有数据、有算力、有场景。

2 个赞

2023年4月3日

德国、法国和爱尔兰已向路透社证实,他们今天早上确实联系了意大利监管机构,因为他们正准备禁止 AI 之类的 ChatGPT,以解决大规模隐私和侵权问题

1 个赞

学习了!感谢:pray:

客气,谢谢关注

1 个赞

当地时间4月4日,美联社报道,美国白宫官员表示,美国总统拜登将于当地时间周二在白宫与科技顾问举行会议,讨论人工智能(AI)给人类、社会和国家安全带来的“风险和机遇”。

报道称,白宫官员表示,拜登将讨论保护权利和安全的重要性,以确保负责任的创新和适当的保障措施。他将呼吁国会通过两党隐私法,以保护孩子,并限制科技公司收集所有人的个人数据。

当前,关于人工智能的监管正在成为全球热议的焦点话题。

1 个赞

谷歌公司设计了自己的定制芯片,称为Tensor Processing Unit(TPU),并将这些芯片应用于90%以上的人工智能训练工作。

目前,谷歌TPU已经进入第四代。论文中,谷歌表示,对于规模相当的系统,TPU v4可以提供比英伟达A100强1.7倍的性能,同时在能效上也能提高1.9倍。另外,谷歌超算速度还要比Graphcore IPU Bow快约4.3倍至4.5倍

1 个赞

国家互联网信息办公室网站4月11日消息,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公开征求意见。

美国商务部就ChatGPT等AI工具监管措施公开征求意见

4月11日,据《华尔街日报》报道,拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查。作为潜在监管的第一步,美国商务部4月11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。征求意见期限为60天。

“看到这些工具即使在相对初级阶段也能做到的事情,真是令人惊讶,”美国商务部下属国家电信和信息管理局局长艾伦·戴维森说,“我们知道,我们需要设置一些护栏,以确保它们被负责任地使用。”

戴维森还补充说,他领导的机构的法定任务是向总统提供科技政策建议,而不是编写或执行法规

当地时间周三 (4月12日),意大利数据保护局 (Garante) 提出了一系列聊天机器人ChatGPT在该国恢复使用的要求。在周三的声明中,Garante对OpenA提出了一系列需要在本月底前满足的具体要求,并表示,在解决监管机构的担忧后,意大利当局将暂停对OpenAI处理该国用户数据的临时限制令,OpenAl也将再次在意大利开放。

根据Garante的要求,OpenAI必须在其网站上发布信息,说明它如何以及为什么处理用户和非用户的个人信息,并提供更正或删除这些数据的选项。

据财联社,意大利监管机构表示,OpenAI还必须在5月15日之前通过广播、电视、报纸和互联网展开宣传活动,告知人们该公司是如何使用他们的个人数据来训练算法。

此外,OpenAI必须在今年9月之前建立严格的年龄验证机制,过滤掉未满13岁的用户以及未经父母同意的13岁至18岁的青少年。有关这一机制的详细计划必须在5月31日之前提交给监管机构。

Garante强调,将继续调查OpenAI可能违反数据保护规则的行为,并保留在调查结束时采取任何其他必要措施的权利。

3月31日,意大利个人数据保护局宣布禁止使用ChatGPT,限制ChatGPT的开发公司OpenAI处理意大利用户信息,并开始立案调查。

ChatGPT收到首张“禁令”后,不少国家开始考虑效仿意大利,“围堵”ChatGPT。

4月6日凌晨,Open AI在官网发布了《Our approach to AI safety》,以确保安全、可靠地为全球用户提供ChatGPT服务。

1 个赞