生成式人工智能服务再添新规 安全要求逐步细化落地

首页 / 业界 / 政策 /  正文
作者:安全419
来源:安全419
发布于:2023-10-12
10月11日,全国信安标委发布关于征求信安标委技术文件《生成式人工智能服务 安全基本要求》(征求意见稿)(以下简称《安全要求》)意见的通知。据了解,《要求》旨在支撑8月15日正式生效的《生成式人工智能服务管理暂行办法》(以下简称 《管理办法》),提出了提供者需遵循的安全基本要求。
 


生成式人工智能也称AIGC(AI Generated Content),其主要通过大规模的训练数据,辅之以功能完善的编码器和解码器对其进行编码学习与解码生成,再通过有效的评估机制后生成用户所需的内容。例如,全球流行的ChatGPT即为典型的生成式人工智能,其可以与用户进行普通聊天、完成信息咨询、撰写诗词文章等。
 
生成式人工智能具有易于使用、提高效率、节约成本等显著优势,可以辅助企业与个人作出更精准的决策,但与此同时,也面临着诸多挑战,数据偏差、监管伦理、隐私安全等已成为人工智能领域进一步发展亟须解决的问题。
 
在该大背景下,国家网信办及时响应市场需求,于4月11日发布《管理办法》(征求意见稿)。在广泛征求社会各界意见后,短短三个月,7月13日,网信办、国家发改委、教育部、科技部、工信部、公安部、国家广电总局七部委联合发布《管理办法》正式版,并于8月15日实施,成为全球首部针对生成式人工智能的法规。多部委联合发布的形式,也凸显了生成式人工智能的跨域复杂性和治理体系化思路。
 
《管理办法》主要提出两种监管政策,一是根据生成式人工智能服务的风险高低进行分类分级监管,二是根据生成式人工智能服务适用的不同领域进行行业部门监管。而本次出台的《安全要求》作为其落地支撑性文件,为生成式人工智能服务提供者提出明确要求和实施路径以满足《管理办法》的监管政策,包括语料安全、模型安全、安全措施、安全评估等。



语料安全要求
 
应建立语料来源黑名单,应对各来源语料进行安全评估,单一来源语料内容中含违法不良信息超过5%的,
应将该来源加入黑名单。对每一种语言,以及每一种语料类型,均应有多个语料来源。使用开源语料、自采语料、商业语料时,需符合相关授权或声明协议。
 
应采取关键词、分类模型、人工抽检等方式,充分过滤全部语料中违法不良信息。应设置语料以及生成内容的知识产权负责人,并建立知识产权管理策略。


个人信息方面,应使用包含个人信息的语料时,获得对应个人信息主体的授权同意,或满足其他合法使用该个人信息的条件;应使用包含敏感个人信息的语料时,获得对应个人信息主体的单独授权同意,或满足其他合法使用该敏感个人信息的条件;应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。
 
模型安全要求
 
提供者不应使用未经主管部门备案的基础模型。在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一。对提供服务过程中以及定期检测时发现的安全问题,应通过针对性的指令微调、强化学习等方式优化模型。
 
以交互界面提供服务的,应在网站首页、服务协议等显著位置公开—服务适用的人群、场合、用途等信息,第三方基础模型使用情况,服务的局限性等。生成内容需满足准确性和可靠性要求。
 
安全措施要求
 
应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性;服务用于关键信息基础设施、自动控制、医疗信息服务、心理咨询等重要场合的,应具备与风险程度以及场景相适应的保护措施;
 
个人信息处理方面,应按照我国个人信息保护要求,并充分参考现行国家标准,如GB/T 35273等,对个人信息进行保护。
 
图片、视频等内容标识方面,应按TC260-PG-20233A《网络安全标准实践指南—生成式人工智能服务内容标识方法》进行标识。
 
安全评估要求
 
应在服务上线前以及重大变更时开展安全评估,评估可自行开展安全评估,也可委托第三方评估机构开展。安全评估应覆盖本文件所有条款,每个条款应形成单独的评估结论,评估结论应为符合、不符合或不适用。
 
《安全要求》还指出,除本文件提出的基本要求外,提供者还应自行按照我国法律法规以及国家标准相关要求做好网络安全、数据安全、个人信息保护等方面的其他安全工作。