热点
"Backdoor Attacks" 相关文章
只要250份投毒樣本,就能在LLM預訓練植入後門觸發亂碼
AI & Big Data 2025-10-14T08:15:09.000000Z
只要250份投毒樣本,就能在LLM預訓練植入後門觸發亂碼
AI & Big Data 2025-10-14T08:15:09.000000Z
250份恶意样本“毒倒”百亿参数大模型?内容安全已成AI生命线
360数字安全 2025-10-13T13:20:49.000000Z
250份文档就能给大模型植入后门:不分参数规模
智源社区 2025-10-12T21:43:34.000000Z
管你模型多大,250份有毒文档统统放倒,Anthropic:LLM比想象中脆弱
机器之心 2025-10-10T15:46:28.000000Z
管你模型多大,250份有毒文档统统放倒,Anthropic:LLM比想象中脆弱
机器之心 2025-10-10T15:46:28.000000Z
管你模型多大,250份有毒文档统统放倒,Anthropic:LLM比想象中脆弱
机器之心 2025-10-10T09:25:44.000000Z
犹他大学 | 探索深度学习模型中的固有后门
安全学术圈 2025-08-28T15:42:48.000000Z
犹他大学 | 探索深度学习模型中的固有后门
安全学术圈 2025-08-28T15:42:48.000000Z