七巨头签“禁生化武”书

2023-07-28 06:39:27 来源:清元宇宙

7月25日,美国国会参议院司法委员会举行了人工智能听证会。会上许多专家预言,AI的高速发展可能会在未来几年内造成巨大危害,比如恐怖分子将会利用AI制造生化武器。

对,没有看错,AI制造生化武器。


(相关资料图)

但在场的Anthropic CEO达里奥·阿莫代伊(这家公司最近推出了,点击可阅读)又说:“从监管角度而言,在确定并制定相关程序之前,我们都是在瞎猜。如果没有适当的措施来限制AI,我们的日子就不会好过。”

01

七大AI巨头

对AI安全做出八项承诺

事实上,关于监管和限制AI,美国已经在努力了。上回我们提到,(点击查看全文)。

而这次,美国总统拜登召集了七家AI头部企业——Meta、微软、谷歌、OpenAI、Anthropic、亚马逊、Inflection AI,在白宫召开会议。

Meta发布后(点击阅读前文),风光地回到了政府的邀请序列里。而上一次开会的时候,(点击阅读前文)。

当记者开玩笑问这七家公司的高管是真人还是AI时,拜登走进罗斯福厅,说道:“我就是AI。”

这眼神,这嘴型,这动作,网友直呼:不像演的!

接着,拜登还说:“如果有人觉得我是亚伯拉罕·林肯,那就怪AI吧。”

拜登蹦出这句让人摸不着头脑的话,就是想说“AI已经对美国造成威胁”,在AI肆意横行的当下,他拜登不一定是真人,甚至会有人觉得这个人是林肯。

可见,AI着实让美国慌了。

因此,在这次的活动中,七大巨头签订了“自愿承诺书”,对AI技术的安全、透明、以及风险等问题做出了“八大承诺”。

现在让我们来解读这些承诺:

承诺1:承诺在发布之前对其AI系统进行内部和外部安全测试。

这其实很多AI公司已经做到了,但这类测试可能价格不菲,而且需要重要的专业技术加持。目前许多安全测试是由公司资助和监督的,这就容易产生利益冲突。

如果政府愿意为测试提供资金或技术,也许能解决这个问题。而且,政府可能比企业更适合评估某些AI风险,比如上文所提到的,AI被用来开发生化武器的风险。

承诺2:承诺在整个行业以及与政府、民间社会和学术界分享关于管理AI风险的信息。

AI公司公布模型信息可谓是家常便饭,其中有些公司,比如OpenAI和Anthropic,还会发布“system cards”文档,其中讲述了他们为使模型更安全而采取的步骤。

但这也不绝对,比如OpenAI就曾打破行业惯例,在GPT-4发布时,不透露它训练的数据量,或者模型有多大。

OpenAI表示,拒绝公布这些数据是出于对竞争和安全的担忧。但这也恰好是AI公司喜欢与竞争对手保持距离的数据。

在这一承诺下,大家会被迫公开这些信息吗?如果这样做确实有加速AI军备竞赛的风险呢?

而且,如果某公司AI团队在发布前的测试中阻止了一个新模型被用来制造生化武器,那么应该对外分享这一信息吗?如果分享,有不法分子尝试用保护程度较低的模型来执行同样的任务怎么办?

承诺3:承诺投资于网络安全和内部威胁防护措施,以保护专有的和未发布的模型权重。

“模型权重”是指赋予AI模型功能的数学指令,如果一个外国政府(或竞争对手公司)的代理人,想建立自己版本的ChatGPT或其他AI产品,那么权重就会是他想偷的东西。因此,AI公司为了既得利益,会“好好守护”模型权重。

尽管如此,模型权重泄漏也不是新鲜事儿。例如,Meta的原始LLaMA语言模型的权重,在模型公开发布的几天后就在4chan上和其他网站泄露了。

考虑到更多信息泄露的风险,以及其他国家可能会从美国公司窃取这种技术,白宫要求公司在这方面投入更多的资金,其实是一件不假思索的事情。

承诺4:承诺将促进第三方发现和报告其AI系统中的漏洞。

许多AI公司在发布模型后都会发现其中的漏洞,这通常是因为用户试图拿模型做坏事,或者以公司没有想到的方式绕过防护。

白宫要求公司针对漏洞建立“报告机制”,可能是应用程序内的反馈按钮,类似于允许Facebook和Twitter用户报告违规帖子的按钮?

又或者是一个漏洞悬赏程序,就像OpenAI奖励发现其系统缺陷的用户?目前还不得而知。

承诺5:承诺将开发强大的技术机制,以确保用户知道内容何时由AI生成,例如水印系统。

对于这一承诺,AI公司们已经开始努力实现了。

OpenAI表示,将会研发一种水印机制,加入到视频或音频中。还会开发检测工具,判断内容是否含有系统创建的工具或API。

谷歌也说过,除了水印以外,还会研发其他技术对信息推广层层把关。

承诺6:承诺将公开报告其AI系统的能力、局限性以及适当和不适当使用的领域。

这又会衍生出一堆问题:

公司多久会被要求报告其系统的能力和局限性?这些信息要详细到什么程度?许多构建AI系统的公司在事后都对自己系统的能力感到惊讶,那还能指望它们提前描述得有多好吗?需要明确的地方还有很多。

承诺7:承诺将优先研究AI系统可能带来的社会风险,包括避免偏见和歧视以及保护隐私。

虽然“优先研究”听上去很模糊,但这一承诺或许足以得到AI伦理群体的好评。

因为与其杞人忧天担心世界末日的危害,这些群体希望,AI公司把偏见和歧视这些正在发生的伤害作为优先处理的事项。

承诺8:承诺将致力于开发和部署先进的AI系统,以帮助解决重大的社会问题。

其中,“癌症预防”和“减缓气候变化”被列为希望AI公司集中攻克的领域。但尴尬的是,在AI研究中,往往是一开始看着微不足道的事产生了更宏大的影响。

比如,AlphaGo起初是被训练用来玩棋类游戏的AI,但它所采用的一些技术后来被证实在“预测蛋白质的三维结构”方面十分有效,这一重大发现还推动了基础科学研究。

02

美国对AI安全的变化

纽约大学斯特恩商业与人权中心副主任保罗·巴雷特直言,这些承诺只是“蜻蜓点水”,还需要做更多工作来防止AI带来的威胁。

因为这份自愿承诺书更多是象征性的,而不是实质性的,没有强制执行机制来确保公司会遵守承诺。

针对外界质疑,白宫官员对记者表示,承诺不能取代联邦行动或立法,拜登政府正在积极制定一项行政命令。

如果这是真的,那对于美国将是一大进步。毕竟长期以来,美国对AI都保持着“放养状态”。

早在2016年,美国就颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级框架性、促进性而非管制性、约束性的文件,旨在积极促进AI技术发展和科技创新。但针对AI技术带来的挑战,文件只是提出了原则性的应对方法。

在欧洲《人工智能法案》草案通过后,美国不甘落后,开始加紧推动AI监管工作。但这些更多是对以往监管政策的延续,而在法律层面的实质性推进上进展缓慢。

这一次,承诺“将与两党合作制定适当的立法和监管”的拜登,能否带领美国好好“管教”AI呢?

参考资料:

/2023/07/22/technology/

标签:

推荐阅读>