BCS2023 | 百度安全:大模型安全挑战与应对

07/14 16:04
阅读数 1.1K
当下,以大模型为代表的新一代AI技术掀起了席卷全球的技术浪潮,被广泛认为是一场颠覆性的技术革命。在从训练到应用过程中的供应链安全可控、网络安全防御、数据安全与个人信息保护、算法和内容安全与滥用防范等各个生命周期环环相扣,需要大模型能力提供方在不断保持技术领先的同时,建立有一整套行之有效的安全保障体系

7月7日,在2023北京网络安全大会“AI大模型的安全挑战与应对论坛”上,百度安全副总经理、安全技术委员会主席包沉浮表示,大模型应用正在驱动应用与外部世界交互的能力逐渐增加,会催生大模型技术本身逐渐下沉作为更底层的基础设施,同时在应用层面会出现更加复杂的组合式应用形态。针对这种趋势,首先,大模型应用提供方需要加强对大模型应用技术风险的预判,尤其是供应链安全风险,以及复杂内外部交互引入的新型安全和隐私风险;其次,除大模型应用本身的风险之外,需要更多关注和控制二次应用层面的风险;再次,需要加强多方协同的安全治理机制,共建标准、技术和管理措施,共同应对大模型应用的衍生风险。

2023北京网络安全大会“AI大模型的安全挑战与应对论坛”由中国网络空间安全协会指导、奇安信集团、北京赛博英杰科技有限公司联合主办。赛博英杰创始人&董事长谭晓生主持本次论坛。百度安全作为国内领先AI安全品牌厂商受邀出席。

会上,包沉浮提到,大模型应用正在面临不同层面的安全挑战,应用提供方需要从供应链安全可控、网络攻击防御、数据安全与个人信息保护、算法和内容安全等维度控制内生风险,同时还需考虑不依赖于应用架构本身的衍生性风险,例如被不法分子利用,造成模型滥用、业务服务滥用、品牌滥用等。针对大模型应用的五大类安全风险,应用提供方的安全保障体系也被纵向划分为五个风险控制层次,针对每个风险控制层次,需覆盖发现与识别、防护与检测、响应与处置等多个环节。





具体而言,在供应链安全可控层次对于芯片层、框架层、模型层和应用层,除关注自主可控外,也需要关注其自身的安全性。其中,以飞桨为代表的国产深度学习框架已较为成熟,同时具备完善的漏洞管理机制,在安全性方面已经做到齐平甚至超越相关国外厂商;
在网络攻击防御层次 在传统网络攻击防御体系的基础上,需关注新型组件、新型攻击面、组合型攻击手段,例如LangChain等流行的新型AI组件,例如针对各类已知Prompt Injection风险,进行输入/输出内容安全检测等;
在数据安全与个人隐私保护层次 大模型应用涉及的重要数据包括大模型数据、训练语料数据、在应用运行过程中产生的日志数据等,需基于《数据安全法》、《个人信息保护法》等重要法律法规要求,围绕大模型应用数据全生命周期,建立覆盖数据管理、数据保护、数据合规三层次的数据安全和个人信息保护体系,同时,针对云上训练和预测、私有数据云上精调、私有化精调/预测、行业大模型共建等四种典型大模型云服务场景,可通过联邦学习+可信执行环境技术,构建适合云服务场景的数据安全保护方案;
在算法及内容安全层次 ,大模型应用输出安全的内容依赖于可信和安全的算法、算法的安全又依赖于安全可靠的训练数据,因此需在数据、算法、应用三个层面考虑内容安全性并建立保障机制;
秉承“有AI,更安全”的使命,百度安全始终致力以更安全的AI携手多方合作伙伴护航云智一体深入产业。在大模型安全领域, 百度安全围绕大模型全生命周期已构建出一套安全解决方案,方案涵盖大模型训练、精调、推理、部署、运营等关键阶段,以此助力企业构建平稳、健康、可信、可控的大模型服务,以更安全的大模型,驱动数字经济与实体经济的深度融合。


本文分享自微信公众号 - 百度安全实验室(BaiduX_lab)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部