IT之家 09月17日
国内首次AI大模型众测揭示安全挑战
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

国内首次针对AI大模型的实网众测检验结果已揭晓,本次活动由中央网信办网络安全协调局指导,国家计算机网络应急技术处理协调中心主办。活动动员了559名白帽子,对15款大模型及应用产品进行了实战化测试,发现了281个安全漏洞,其中大模型特有漏洞占比超过60%。典型漏洞包括不当输出、信息泄露、提示注入以及无限制消耗类攻击等。腾讯混元、百度文心一言、阿里通义App、智谱清言等产品表现出较高的安全防护水平。活动强调需持续加强防护、制定漏洞标准、汇聚白帽力量并加强内生安全治理。

💡 **AI大模型面临严峻安全挑战**:国内首次实网众测发现,15款大模型及应用产品共暴露281个安全漏洞,其中177个为大模型特有,占比超60%,表明AI大模型领域存在大量新兴安全风险,传统安全领域外的威胁不容忽视。

🛡️ **典型漏洞风险多样且突出**:测试揭示了不当输出、信息泄露、提示注入以及对无限制消耗类攻击的防护不足等普遍问题。这些漏洞一旦被利用,可能对国内AI大模型产品生态造成严重影响,凸显了加强模型安全防护的紧迫性。

🚀 **部分头部产品安全防护表现优异**:在参与测试的主流大模型产品中,腾讯混元、百度文心一言、阿里巴巴通义App、智谱华章智谱清言等产品在漏洞风险发现数量上较少,显示了其较高的安全防护水平,为行业树立了良好标杆。

🤝 **构建AI安全共治生态**:活动强调了通过众测模式汇聚社会白帽力量的重要性,并呼吁加快制定AI漏洞分类分级标准,将安全融入AI系统全生命周期,从源头构筑安全基石,形成AI共治的良好局面。

IT之家 9 月 17 日消息,随着 AI 应用场景的不断扩展,新的漏洞和攻击手法将不断涌现,AI 大模型安全治理工作任重道远,亟需各方共同努力。

昨日,国内首次针对 AI 大模型的实网众测检验结果在第 22 届中国网络安全年会(暨国家网络安全宣传周网络安全协同防御分论坛)重磅揭晓。

IT之家注:本次活动由中央网信办网络安全协调局指导,国家计算机网络应急技术处理协调中心主办,网络安全众测平台、国家网络安全人才与创新基地提供技术和环境支持。

据官方介绍,此次活动共动员 559 名白帽子,涵盖网安企业专业人才、科研院校师生以及社会白帽子。他们从外部攻击者的视角,对大模型进行了多维度实战化测试,取得了丰富的测试成果。

测试产品中既有基础大模型产品,也有垂域大模型产品,还有智能体、模型开发平台等相关应用产品,其中既包含单模态大模型,也涵盖多模态大模型,具有较广泛的代表性。

据介绍,本次活动对国内 15 款大模型及应用产品进行了漏洞测试;累计发现各类安全漏洞 281 个,其中大模型特有漏洞 177 个,占比超过 60%。这一数据充分表明,当前 AI 大模型产品面临着大量传统安全领域之外的新兴安全风险。

活动中发现的典型漏洞风险包括:一是部分产品存在不当输出类漏洞且危害严重;二是信息泄露类漏洞多发,存在较大安全隐患;三是提示注入类漏洞普遍,是大模型最常见漏洞风险;四是部分大模型产品针对无限制消耗类攻击的防护措施有待加强;五是传统安全漏洞依然普遍存在,危害不容忽视。鉴于 AI 大模型产品普遍用户量大、使用率高,若上述漏洞被恶意攻击者利用,将对国内 AI 大模型产品生态造成较严重的影响。

在参与测试的主流大模型产品中,腾讯公司混元大模型、百度公司文心一言、阿里巴巴通义 App、智谱华章公司智谱清言等发现的漏洞风险较少,体现了较高的安全防护水平。

另外,本次活动涌现出梁宏宇、马宝新、刘铭等一批表现突出的优秀白帽子。本次活动测试对象主要是实时在线运行的 AI 大模型及应用产品,在产品厂商的防护下,各位白帽子能够挖掘出高危甚至严重等级的漏洞,说明他们有着出众的能力并付出了艰辛的努力。

官方还提出了四点 AI 大模型安全治理工作要求:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI大模型 网络安全 漏洞测试 众测 AI安全治理 Large Language Models Cybersecurity Vulnerability Testing Crowdsourced Testing AI Security Governance
相关文章