界面快报 09月19日
AI大模型众测发现安全漏洞
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

第22届中国网络安全年会发布AI大模型实网众测结果,共发现281个安全漏洞,其中177个为大模型特有,部分产品存在严重漏洞,如模型生成内容未经验证即被用于下游系统。

9月16日,国内首次针对AI大模型的实网众测检验结果在第22届中国网络安全年会发布。活动共动员559名白帽子,对国内10家AI厂商的15款大模型及应用产品进行了漏洞测试。本次众测活动,共发现各类安全漏洞281个,其中大模型特有漏洞177个,传统漏洞104个。部分产品存在不当输出处理类漏洞且危害严重。主要是模型生成内容未经验证、过滤即被用于下游系统,导致恶意内容被直接执行或传递。此类漏洞通常是模型自身缺陷与传统安全问题的结合。例如,某大模型存在全回显SSRF漏洞,攻击者可直接接管大模型服务器,获取内网数据;某大模型可调用Python工具且权限管理存在漏洞,可导致系统崩溃、业务中断、服务器失陷等严重后果。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI大模型 安全漏洞 众测 网络安全
相关文章