阻止AI毁灭人类,OpenAI、微软、谷歌等公司共同成立“自治组织”| 最前线

周 愚·2023年07月27日 18:50
AI公司们也希望借此换取更大的主动空间——用主动合规避免被动监管,甚至在一定程度上参与规则的制定。

作者 | 周愚

编辑 | 邓咏仪

当监管的目光开始频频投向AI,科技巨头们正在用自愿倡议的方式占据主动权。

美国时间7月26日,OpenAI、微软、谷歌和Anthropic等四家AI领域巨头宣布成立行业组织“前沿模型论坛”(Frontier Model Forum),目的是“确保前沿AI开发的安全和负责任”。

7月初,OpenAI曾就“前沿AI监管”发文,将“前沿AI”模型定义为:具有造成严重公共安全风险能力的高性能基础模型。

来源:OpenAI推特

 声明指出,论坛的核心目标包括如下四点:

  • 推动人工智能安全研究,促进前沿模型负责任的发展,最大限度降低风险,实现对AI能力与安全的独立、标准化评估。
  • 确定负责任前沿模型开发和部署的最佳做法,向公众普及AI技术的性质、能力、限制与影响。
  • 与政策制定者、学者、民间社会和公司合作,并分享有关AI信任和安全风险的知识。
  • 针对解决当前社会最大挑战,如气候变化减缓和适应、早期癌症检测和预防,以及网络威胁应对,支持开发相关应用。

这些目标与四家公司上周五在白宫作出的自愿承诺基本一致,当时共同作出承诺的公司还有Meta、亚马逊和Inflection。

“开发人工智能技术的公司有责任确保其安全、可靠,并处于人类控制之下。”微软总裁布拉德·史密斯在声明中强调。

论坛的成立体现了行业巨头在AI安全方面的积极态度,但这些公司也希望借此换取更大的主动空间——用主动合规避免被动监管,甚至在一定程度上参与规则的制定。

四家公司发布的声明中表示,“前沿模型论坛”希望支持和推动现有政府和多边倡议在人工智能方面的工作,包括七国集团(G7)广岛AI进程,经合组织(OCED)关于AI风险、标准与社会影响的工作,以及美欧贸易和技术理事会(TTC)的相关工作。

在接下来的数月内,该论坛将首先建立起一个顾问委员会,以帮助指导论坛的战略和优先事项。声明称,该委员会将“代表不同的背景和观点”。在未来几周内,还将与民间社会和各国政府,就论坛的设计与合作方式展开磋商。

未来一年,前沿模型论坛将重点关注确定最佳做法、推动AI安全研究、促进企业与政府间信息共享等三个关键领域,并欢迎其他前沿AI模型开发者加入论坛。

长按添加「智涌」小助手入群,添加请备注:公司+职务

+1
47

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

有道的大模型在英语领域已经达到了98%准确率,但用户能否为2%的错误买单,需要市场验证。

2023-07-27

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业