cnBeta全文版 10月07日
Google推出AI漏洞悬赏计划,最高奖金三万美金
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Google本周一正式启动了专门针对AI产品漏洞的悬赏奖励计划,旨在鼓励安全研究者发现并报告AI系统中的安全风险。该计划明确了AI漏洞的定义,重点关注利用大型语言模型或生成式AI系统可能造成的危害,例如通过间接提示使智能家居设备执行异常操作(如自动解锁门),或数据挟持导致邮箱内容被窃取。此前,已有多起AI安全事件被报告并获得奖励,显示了该计划的重要性。Google指出,AI产生的“幻觉”或不当内容不属于此次悬赏范围,应通过产品反馈渠道报告。此外,Google还发布了AI安全工具CodeMender,用于自动修补代码漏洞。本次悬赏计划根据漏洞的严重程度和产品的重要性设置了不同奖金,最高可达三万美元,以期进一步巩固Google在AI安全领域的领先地位。

💡 **AI漏洞悬赏计划启动**:Google正式推出一项专门针对AI产品漏洞的悬赏奖励计划,旨在激励全球安全研究者发现并报告AI系统中的潜在风险,提升AI产品的安全性。

🔍 **明确漏洞定义与范围**:该计划首次明确界定了“AI漏洞”,主要聚焦于利用大型语言模型或生成式AI系统可能造成的危害,例如通过间接提示控制智能家居设备执行异常操作,或数据挟持导致敏感信息泄露。AI产生的“幻觉”或不当内容不属于奖励范围。

💰 **丰厚奖励与分级机制**:根据漏洞的严重程度和对Google旗舰产品(如搜索、Gemini、Gmail等)的影响,设置了不同等级的奖金,最高可达三万美元。此举旨在鼓励研究者深入挖掘并报告高质量的漏洞信息。

🛠️ **配套安全工具发布**:与悬赏计划同步,Google还发布了名为CodeMender的AI安全工具,能够自动修补代码漏洞,进一步增强AI产品的整体安全防护能力。该工具已在开源项目中展现出修复安全问题的成效。

Google于本周一正式上线专门针对AI产品漏洞的悬赏奖励计划。此次新计划详细列出了符合条件的漏洞类型,包括通过间接注入AI提示,使Google智能家居(Google Home)执行“异常操作”(如自动解锁门),或通过数据挟持提示,让AI总结受害者邮箱内容并发送至攻击者账户等。

此次悬赏计划首次明确界定了“AI漏洞”,主要聚焦于利用大型语言模型或生成式AI系统实施危害或利用安全漏洞的行为。其中,最受关注的是可导致用户账户或数据被恶意修改并影响安全,例如此前通过被“投毒”的Google日历事件让智能家居设备卷帘窗自动开启或灯光关闭的漏洞。

据悉,自Google两年前邀请AI安全研究者帮助寻找AI产品潜在漏洞以来,漏洞猎人们已累计获得超43万美元奖励。

值得注意的是,若只是让Gemini等AI出现“幻觉”则不属于奖励范围。Google指出,涉及AI生成内容的安全问题(如仇恨言论或侵犯版权内容)应通过产品内反馈渠道直接报告,这样AI安全团队才能对模型输出进行诊断和长期训练改进。

除了奖励计划,Google当天还宣布推出名为CodeMender的AI安全工具,可以自动修补代码漏洞。迄今为止,CodeMender已在人类安全研究员审核下为开源项目修复了72项安全问题。

根据公布的奖励标准,发现“旗舰产品”(如Google搜索、Gemini应用、Gmail和Drive等Workspace核心服务)上“异常操作”漏洞,奖金为两万美元,若报告质量突出或发现创新型漏洞,单项奖金可提升至三万美元。Google其他产品(如Jules或NotebookLM)和较低级别漏洞(如窃取模型参数)奖金则相应降低。

该计划强化了Google在AI安全领域的前沿布局,并鼓励全球安全人士积极参与GoogleAI产品的安全维护工作。

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Google AI安全 漏洞悬赏 大型语言模型 生成式AI 网络安全 CodeMender AI Vulnerability Bug Bounty LLM Generative AI Cybersecurity
相关文章