《生成式人工智能服务安全基本要求》深度剖析:保障AI服务安全的基石
随着生成式人工智能(AIGC)技术的飞速发展,其应用场景日益广泛,从聊天机器人到内容创作,再到智能客服,AI已深入我们生活的方方面面。然而,伴随而来的是对AI服务安全性的高度关注。2024年3月4日,全国网络安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》(以下简称“《基本要求》”),为AIGC服务的健康发展提供了坚实的保障。
一、引言
《基本要求》作为《生成式人工智能服务管理暂行办法》的具体操作指引,旨在规范AIGC服务的安全要求,确保服务提供者能够遵循安全基本原则,为公众提供安全、可靠的AIGC服务。本文将从语料安全、模型安全、安全措施及安全评估四个方面进行深度解读。
二、语料安全要求
语料来源安全:
- 双重评估:服务提供者在采集语料前与后,均需对语料来源进行安全评估或核验,确保语料来源不含有超过5%的违法不良信息。这一措施有效避免了因语料源问题导致的安全风险。
- 合规追溯:对于自采语料,服务提供者需保存采集记录,避免采集不可采集的语料,如通过robots协议标明的不可采集数据或个人已拒绝授权采集的个人信息。对于商业语料,服务提供者则需与语料提供方签署有效交易文件,并要求对方提供语料来源、质量、安全等承诺及证明材料。
语料内容安全:
- 知识产权保护:服务提供者需识别训练语料中的主要知识产权侵权风险,避免使用存在侵权问题的语料进行训练。
- 个人信息保护:使用包含个人信息的语料时,需取得对应个人的同意或符合法律、行政法规规定的其他情形;对于敏感个人信息,则需取得单独同意。
三、模型安全要求
生成内容安全:
- 内容审核:服务提供者需确保模型生成的内容符合法律法规要求,避免生成违法、不良信息。
- 准确性提升:服务提供者应采取技术措施提高生成内容响应使用者输入意图的能力,减少错误内容,确保生成内容的准确性及可靠性。
四、安全措施要求
服务透明度:
- 透明化:服务提供者需提高服务透明度,让使用者了解模型的工作原理、数据使用方式及可能的风险。
用户隐私保护:
- 关闭选项:当收集用户输入信息用于训练时,服务提供者需为用户提供便捷的关闭方式,如选项或语音控制指令,确保用户能够控制自己的数据使用。
内容标识:
- 清晰标识:对于生成的图片、视频等内容,服务提供者需进行清晰标识,避免误导用户。
五、安全评估要求
全面评估:
- 评估内容:服务提供者需按照《基本要求》第9部分的要求进行安全评估,涵盖语料安全、模型安全、安全措施等多个方面。
- 提交报告:完成评估后,服务提供者需提交评估报告,以证明其服务符合安全要求。
六、总结
《生成式人工智能服务安全基本要求》的发布,为AIGC服务的安全监管提供了具体可操作的指导。作为AI从业者,我们需深入理解和遵循这些要求,不断提升服务的安全性及可靠性。同时,我们也应积极探索新技术、新方法,为AIGC服务的健康发展贡献自己的力量。
通过本文的解读,希望广大AI从业者能够对《基本要求》有更深入的了解,并在实际工作中加以应用,共同推动AIGC技术的安全、有序发展。