热点
"模型漏洞" 相关文章
[随想] 大型语言模型(LLM)的安全问题,是工程问题,是算法问题,还是一个根本性的“哲学”问题?
V2EX 2025-11-08T06:32:31.000000Z
[问与答] 大型语言模型(LLM)的安全问题,是工程问题,是算法问题,还是一个根本性的“哲学”问题?
V2EX 2025-11-08T01:49:01.000000Z
[问与答] 大型语言模型(LLM)的安全问题,是工程问题,是算法问题,还是一个根本性的“哲学”问题?
V2EX 2025-11-08T01:29:39.000000Z
[问与答] 大型语言模型(LLM)的安全问题,是工程问题,是算法问题,还是一个根本性的“哲学”问题?
V2EX 2025-11-08T00:31:57.000000Z
Shallow Robustness, Deep Vulnerabilities: Multi-Turn Evaluation of Medical LLMs
cs.AI updates on arXiv.org 2025-10-15T05:00:02.000000Z
只要250份投毒樣本,就能在LLM預訓練植入後門觸發亂碼
AI & Big Data 2025-10-14T08:15:09.000000Z
管你模型多大,250份有毒文档统统放倒,Anthropic:LLM比想象中脆弱
机器之心 2025-10-10T09:25:44.000000Z
Intriguing Properties of gpt-oss Jailbreaks
少点错误 2025-08-13T19:55:48.000000Z
一句话让DeepSeek思考停不下来 北大团队:这是针对AI的DDoS攻击
快科技资讯 2025-03-04T11:29:47.000000Z
Illusory Safety: Redteaming DeepSeek R1 and the Strongest Fine-Tunable Models of OpenAI, Anthropic, and Google
少点错误 2025-02-07T04:06:47.000000Z
大型语言模型(LLM)的红队测试
qz安全情报分析 2024-09-11T03:38:26.000000Z