PaperWeekly 2024年11月08日
直播预告 | 北京航空航天大学智能安全团队:大模型内生安全评测体系
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

PaperWeekly将于11月9日举办AI安全说第8期直播,主题为“大模型内生安全评测体系”。北京航空航天大学博士生肖宜松将围绕智能算法模型的内生和衍生安全风险,介绍其团队在安全评测体系方面的研究工作。内容包括对抗攻击、后门投毒、越狱攻击、公平性测试等,旨在揭示大模型潜在安全威胁,并建立可信评测体系保障模型安全可信,助力人工智能在关键领域的应用。直播将在PaperWeekly视频号和B站直播间进行,欢迎预约观看。

📅2024年11月9日19:30-20:00,PaperWeekly将举办AI安全说第8期直播,主题为“大模型内生安全评测体系”。

👨‍🏫直播嘉宾肖宜松,北京航空航天大学博士生,研究方向为人工智能安全与软件测试,重点关注人工智能算法模型的可信性属性。

🔍直播内容涵盖大模型的内生安全(对抗攻击、后门投毒等)和衍生安全(越狱攻击、公平性测试等)风险,以及构建多维安全测试、漏洞定位解释、模型加固修复的可信评测体系。

📺观看方式:PaperWeekly视频号和B站直播间,欢迎预约观看。

💡直播旨在揭示大模型潜在安全威胁,并建立可信评测体系保障模型安全可信,助力人工智能在关键领域的应用。

和你一起进步的 2024-11-08 13:06 北京

快来预约开播提醒吧~





 AI安全说 第8期 


嘉宾在线解读✔️

在线实时Q&A✔️


 直播主题 


大模型内生安全评测体系


 直播嘉宾 


肖宜松

北京航空航天大学博士生


 直播时间 


2024年11月9日(周六)

19:30-20:0


 观看方式 


PaperWeekly视频号

PaperWeekly B站直播间


一键预约直播




 报告介绍 


01

大模型内生安全评测体系

近年来,人工智能算法模型取得了迅猛发展,并广泛应用于多个领域。然而,基于大数据训练的智能模型面临内生安全威胁,如对抗样本和后门注入,其生成内容也可能引发一系列衍生的社会安全问题。因此,构建人工智能安全评测体系,对智能模型进行安全测试、分析和加固,已成为当前重要的研究课题。


本次 talk 将围绕智能算法模型的内生和衍生安全风险,介绍北京航空航天大学智能安全团队在安全评测体系方面的系列研究工作。研究内容包括针对内生安全的对抗攻击、后门投毒,揭示模型认知表示层次中的固有缺陷;以及针对衍生安全的越狱攻击、公平性测试、偏见调控等,揭露模型在实际行为中可能与人类价值需求偏离的潜在危害。


通过建立多维安全测试、漏洞定位解释、模型加固修复的可信评测体系,可以保障算法模型的安全可信,助力人工智能在关键领域的安全有序应用。



 嘉宾介绍 


肖宜松

北京航空航天大学博士生

肖宜松,北京航空航天大学计算机学院在读博士生,师从刘祥龙教授。他的研究领域涵盖人工智能安全与软件测试,重点关注人工智能算法模型的鲁棒性、公平性等可信性属性。相关研究成果已在 ISSTA、ICSE 等国际顶级学术会议上发表。目前,他的研究兴趣集中在大模型的公平性与偏见问题,致力于检测并缓解大模型中存在的偏见和歧视行为,以推动大模型的更加公平应用。





技术交流群

扫码备注「LLM安全」

立刻加入技术交流群


一键预约直播


?


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

·


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 人工智能安全 安全评测 PaperWeekly 直播
相关文章