如何建设“负责任”的人工智能治理模型?

CIO发展中心·2025年04月11日 09:16
构建负责任AI的共同使命是组织内各个部门的不同利益相关者必须相互协作,以一致、有效地应用负责任的人工智能实践

本文根据赫力昂中国首席信息安全官顾伟在“CIAPH 第13届医药健康行业数字化高峰论坛”上的分享整理 

顾伟赫力昂中国首席信息安全官

各位同仁大家上午好,今天我的分享将围绕人工智能在甲方企业的落地展开,对于药企来说,如何应用负责任的人工智能治理模型?这是一个值得我们共同探索的课题。

01 什么是人工智能?

首先我们再一起来认识一下AI,人工智能根据不同的领域,可以分为狭义AI、通用AI、人工超智能三类,像图像识别、语音识别、语义分析等场景就是狭义的弱AI。而自动驾驶、智能机器人、手术机器人等则是通用AI,也就是强AI。人工超智能则更多应用于创新与创造性、主动感知环境等场景。

如今AI正以惊人的速度发展,在游戏领域,AI不仅学会了游戏规则,更在策略和反应速度上超越了人类玩家,例如围棋比赛中李世石和人工智能的对决。这其实是一个非常具有突破性的飞跃,但当时人工智能并没有被重视,如今AI真正进入到一个爆发性的阶段。

从通用人工智能的发展历程来看,2018年GPT已经诞生第一个版本,通过持续的迭代和优化,2024年9月,OpenAI-o1已经在处理复杂推理任务方面取得了更显著的进展。以我个人来讲,我在做研究和写文章的时候,发现通过AI梳理文献、检索文献,这会使工作非常高效。当然人工智能有很多应用场景,很多企业也做了一些很好的应用。由于我们是一家英国公司,总部位于伦敦,所以基于欧盟的人工智能法案,也进行了相应的人工智能治理模型的建设。

虽然人工智能能够提升我们的效能,但不可忽视的问题是一定要平衡风险和收益。人工智能也需要一分为二来看,就像是冰山一样,水面露出的上层可能是一些优势和闪光点,例如可以帮助我们提升用户体验,增速商业模式的推进。但同时在水下也有一些底层的风险,例如技术壁垒、伦理歧视、固有偏见、隐私问题等等。所以在人工智能的应用中,如何保护用户的权益和隐私,怎样避免AI被误用,这值得广大同仁深入研究。

02 何为负责任的人工智能?

随着大家对人工智能相关风险的认识和审查增加,构建负责任的技术已成为各行业组织中的首要关注点。在全球范围内,负责任的人工智能正从“最佳实践”成熟为推动系统级变革和培养信任所必需的高级原则和指导。监管机构也在关注这一点,倡导围绕人工智能的监管框架,包括增加数据保护、治理和问责措施。

我认为在RAI端到端的企业治理框架中,首先需要定义战略,以及相应的行业标准和法规;接着做好相应的规划,并建立生态系统,将供应商融入到技术路线中;后面就是做相应的应用、开发和部署;最后需要持续性的监控。这样才可以构建一个完整负责任的人工智能。

03 为什么要选择负责任的人工智能?

各行各业越来越多的组织和行业采用人工智能来提供产品和服务,或许有的企业中AI替代人力,对员工带来了一定的恐慌。并且数据越来越多,需要负责任的AI来合理应用数据。而且用户对负责任和透明的人工智能的呼声更高。当然也不容忽视外部风险,有很多模型基础架构其实很“脆”,没有防火墙,没有数据防护,没有访问权限管理,基本上只要攻击就可以轻松攻破,安全性堪忧。所以构建安全可靠的人工智能是非常重要的。

对于企业来说也是一样,建设人工智能一定会考虑风险和成本,尤其一些大型厂商在做人工智能的应用和开发时,如果没有相应的安全考量,可能就会带来很多额外的风险。以下四个维度的考量可帮助我们去构建合理的、负责任的架构。

第一是战略层面,必须与AI的伦理道德一致,而不能仅仅是为了提高生产力,而建设AI。

第二是控制。管理、合规、风险管理是每个企业都要做的,这需要引起企业的重视。

第三是实践。例如网络安全就非常重要,因为所有基础架构可能都要在互联网上暴露,如果没有做好网络安全,基础架构很容易就会被攻破。

第四是核心实践。要评估AI能够解决的问题,验证是否可以持续迭代,打造遵循行业标准持续监控的能力。

构建负责任AI的共同使命是组织内各个部门的不同利益相关者必须相互协作,以一致、有效地应用负责任的人工智能实践。其中有三道防线:第一道防线就是模型开发时要做好风险的评估,对基础设施部署相应的监控和安全防护。第二道防线是领导层要对法律法规、合规、隐私防护有深刻的理解,做好权限的管控。第三道防线是在企业内部要有一些审计的职能和伦理科学家。此外在企业层面需要有外部的监管机构和审计师协助进行审计和监管。

从2021 年到 2022 年,中国成为第一个对人工智能的一些最常见应用实施详细的、具有约束力的规定的国家。这些规定构成了中国新兴人工智能治理制度的基础。2023年和2024 年初,更多法规和标准的出台,进一步塑造了中国的人工智能监管格局。

我国的AI法律体系,能够帮助我们规避风险。第一《生成式人工智能服务管理暂行办法》能够帮助我们去明确是否需要 做相应的备案和登记。第二《互联网信息服务深度合成管理规定》能够帮助我们辨析一些标识和机制,实施健全的内容审查。另外《互联网信息服务算法推荐管理规定》可以使算法服务商合规的进行备案。通过这些法律,能够进一步满足安全的基本要求。

在部署AI的时候,人工智能技术有可能彻底改变我们的生活和工作方式,其潜力几乎是无限的,但要充分利用并保持所创造的价值,就需要关注并管理伴随而来的风险。第一是模型风险,模型本身训练的数据是否合规。第二是训练数据风险,注意数据来源、质量、安全性和匹配度。第三是算法风险,是否符合当地的法规要求。第四是科技伦理评估风险,也就是算法里是否有对伦理和人权的侵犯。第五是生成内容风险,生成的内容是否侵犯他人知识产权,是否要规避训练数据的歧视和偏见。第六就是安全风险,重点在于数据架构是否安全,是否有一些访问限制。

在我国生成式人工智能服务双备案制体系下,算法备案与大模型备案是必须做的,很多主流大模型服务商都已经完成了备案和相应的登记。当然市面上也有一些违规案例,主要集中在没有备案、没有做安全评估所带来的一些风险,还有就是违规传播内容,侵犯数字版权、图片版权等。

04 如何搭建一个负责任的人工智能治理模型?

对于像我们这样的外企来说,我认为需要分为三个板块来做。第一就是国内本身的评估流程和评估问卷的必要性是非常高的,由于国内对于人工智能合规的要求更加严格,所以我们会进行单独的评估。第二中国大陆和全球总部,会按照全球化RAI搭建评估问卷,例如像亚太地区的国家则可以按照全球总部的评估流程进行评估,只要是在中国进行部署RAI应用,还是要基于中国的合规模式下做评估问卷。第三就是除中国大陆以外,会按照全球总部的RAI评估流程和问卷进行。

接下来一起来看评估问卷的流程,首先就是预评估,这里涉及的主要是技术风险和业务部门提出的一些采购需求,所以我们会要求通过统一接口评估,并且做相应的问卷,通过治理委员会按需定义风险,最后按照风险等级进行决策。业务负责人需要对AI的应用做最后的决策,如果他决定接受风险,需要签字确认,我们才会批准他使用相应的人工智能技术,并且登记在案,这样是相对负责任的人工智能评估流程。

我们通过与律所和一些咨询公司合作,做出了一些问卷,涵盖了中国现行法律法规中对于人工智能应用评估的要求和一些重点,例如是否签订了三方服务协议、人工智能承诺书、过去提供人工智能服务是否有侵权行为等等。同时还包含了很多人工智能服务的安全责任。最后是一些信息公开的内容,是否做备案,是否做登记,有没有相应的科技能力审查等。

最后我想补充的一点是中国RAI补充文档是根据全球 RAI 政策/标准与中国本地法规要求之间的差距分析制定的,作为仅适用于中国市场的补充内容。原因在于在中国会有一些特定的流程化登记和备案的要求,包括看不同的标注数据需求,算法备案的需求,生成内容评估的需求,还有安全评估、科技能力检查的需求等,所以补充文档应运而生。

以上就是我的分享,谢谢大家。

本文来自微信公众号 “CIO发展中心”(ID:cio-ileader),作者:王宇,36氪经授权发布。

+1
4

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业