网安国际 09月12日
InForSec2025夏令营,人工智能赋能网络安全
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

InForSec2025夏令营将于2025年8月1日至7日在西安电子科技大学举办,主题为“人工智能赋能网络安全”。夏令营将提供深度学习模型对抗与隐私数据攻防、大模型安全与人工智能论文写作、大模型赋能网络安全、大模型驱动的实体画像应用实践、基于大模型的漏洞挖掘技术等课程,并设有InForSec学术交流会暨“导师面对面”专题活动。欢迎对网络安全和人工智能感兴趣的同学报名参加。

🎓 InForSec2025夏令营将于2025年8月1日至7日在西安电子科技大学举办,主题为“人工智能赋能网络安全”,旨在培养网络安全人才,提升学生对人工智能技术的理解和应用能力。

📚 夏令营课程涵盖深度学习模型对抗与隐私数据攻防、大模型安全与人工智能论文写作、大模型赋能网络安全、大模型驱动的实体画像应用实践、基于大模型的漏洞挖掘技术等,内容丰富,实用性强。

🗣️ 夏令营将邀请复旦大学、西安交通大学、北京邮电大学等高校的专家学者进行授课,分享最新的研究成果和实践经验,并与学生进行互动交流,解答学生疑问。

🤝 夏令营设有InForSec学术交流会暨“导师面对面”专题活动,为学生提供与行业专家交流的机会,帮助学生了解行业发展趋势,拓展人脉资源。

🎒 欢迎对网络安全和人工智能感兴趣的同学报名参加,一起学习,嗨翻这个暑假!

2025-07-10 09:04 江苏

InForSec2025夏令营报名中,课程安排现已出炉,欢迎充满热爱的你加入InForSec大家庭,一起学习,嗨翻这个暑假!

InForSec2025夏令营报名火热进行中

InForSec定于2025年8月1日~7日在西安电子科技大学举办“InForSec & DataCon 2025年网络空间安全大学生夏令营”。

本届夏令营活动的培训课程主题是“人工智能赋能网络安全”,除了培训课程之外,夏令营设有为期两天的InForSec学术交流会暨“导师面对面”专题活动。课程安排现已出炉,欢迎充满热爱的你加入InForSec大家庭,一起学习,嗨翻这个暑假!

课程安排


8月1日

课程名称:深度学习模型对抗与隐私数据攻防(1)

课程简介:

1.对抗样本攻击

课程包括神经网络、深度学习、对抗样本等核心内容的讲解以及动手实验,旨在帮助同学理解、掌握神经网络、对抗样本攻击的核心知识,以及具备基本的对抗样本攻击实践能力。

2. 数据隐私攻防

课程包括神经网络、模型反演攻击、数据重构攻击、模型窃取攻击等核心知识的介绍以及相关动手实验,旨在帮助同学理解、掌握神经网络、隐私攻击的核心概念,以及具备基本的模型反演、数据重构的实践能力。

讲师介绍:

蒋昌跃,复旦大学、上海创智学院在读博士生,导师为杨珉、潘旭东。他的研究方向为AI安全、大模型安全、AI智能体系统安全,在RAG系统数据隐私及知识产权风险、智能体行为轨迹安全防护等方向做出多项研究成果,获得了广泛关注。目前他的研究兴趣集中在前沿AI安全风险的测评与治理,以及AI智能体的安全红线风险等方向。

范一禾,复旦大学在读博士生,导师为杨珉、潘旭东。他的研究方向为大模型安全、AI智能体系统安全,在前沿AI智能体安全方向做出多项研究成果,获得了广泛关注。目前他的研究兴趣集中在前沿AI安全风险的测评与治理,以及AI智能体安全。


8月2日

上午

课程名称:深度学习模型对抗与隐私数据攻防(2)

课程简介:

1.模型指纹水印

主要介绍模型产权保护的背景、模型水印技术、模型指纹追溯等基础理论知识。旨在帮助同学理解模型产权保护、水印、指纹的核心概念,以及具备基本的模型水印攻防的实践能力。

2.AI安全攻防系列Lab实验

1)搭建攻击目标——经典卷积神经网络LeNet-5

2)误导AI模型——经典对抗样本生成算法FGSM

3)数据投毒攻击

4)隐私窃取——模型反演、DLG

5)模型水印防护——白盒水印植入

讲师介绍:

蒋昌跃,复旦大学、上海创智学院在读博士生,导师为杨珉、潘旭东。他的研究方向为AI安全、大模型安全、AI智能体系统安全,在RAG系统数据隐私及知识产权风险、智能体行为轨迹安全防护等方向做出多项研究成果,获得了广泛关注。目前他的研究兴趣集中在前沿AI安全风险的测评与治理,以及AI智能体的安全红线风险等方向。

范一禾,复旦大学在读博士生,导师为杨珉、潘旭东。他的研究方向为大模型安全、AI智能体系统安全,在前沿AI智能体安全方向做出多项研究成果,获得了广泛关注。目前他的研究兴趣集中在前沿AI安全风险的测评与治理,以及AI智能体安全。

下午

课程名称:深度学习中的后门攻击迁移性

课程简介:

引言:为什么关注后门攻击迁移性?

1. 后门攻击核心概念

1.1 什么是深度学习后门攻击?

1.2 攻击目标与分类

1.3 经典攻击方法

2. 联邦学习场景:后门迁移

2.1 联邦学习的脆弱性

2.2 迁移性在联邦学习中的增强机制

2.3 防御为何失效?

3. 个性化联邦学习(PFL)

3.1 PFL与传统FL的核心差异

3.2 迁移性在PFL中的表现

4.图提示学习中的迁移性

4.1 图提示学习简介

4.2 攻击迁移性新特征

4.3 研究启示

5. 总结与延伸思考

讲师介绍:

吕晓婷,西安交通大学 软件学院 助理教授,主要的研究方向为人工智能系统安全、投毒攻击、后门攻击。曾在USENIX Security、ACM CCS、KDD、AAAI以及TDSC等多个国际顶级学术会议和期刊发表研究成果。

8月3日

课程名称:大模型安全与人工智能论文写作

课程简介:

1.大语言模型与安全挑战概览

LLM基本结构回顾(Transformer/Decoder-only 模型)

能力演化与“涌现”现象

安全问题分类:训练安全 vs 推理安全 vs 部署安全

典型安全事件案例:ChatGPT越狱、Deepseek幻觉等

2.攻击方式详解与实战案例

Prompt Injection 与 Jailbreak 攻击演示

幻觉与错误事实生成:为什么模型“自信地说错”

模型泄密与隐私暴露(训练数据再现)

微调注入后门(如特定触发词控制输出)

含动手示例或攻击演示

3.防御机制与安全对齐

拒绝机制与有害输出检测(拒答策略、安全分类器)

指令微调与RLHF的对齐思路

安全评估指标与基准(如TruthfulQA、AdvBench)

内容审计机制:如语义熵、链式思维一致性校验等

4.趋势洞察与开放问题

多模态模型的安全风险(如图文模型越狱)

安全对齐 vs 模型能力保留的冲突

最新研究趋势盘点(幻觉检测、模型水印、AI安全治理)

讲师介绍:

鲁昊朗,男,北京邮电大学直博生,主要研究方向为人工智能安全与AI辅助的软件安全。在博一期间,以第一作者或共同第一作者身份向CCF-A类会议期刊投稿4篇论文,其中包括IEEE TIFS、ICML已录用,NeurIPS两篇在审。此外,作为合作者参与多篇论文与综述的撰写,并参与两部专著编写。目前的研究重点聚焦于大语言模型的幻觉、欺骗与忠诚度等前沿问题。


8月4日

课程名称:大模型赋能网络安全

课程简介:

1.大模型与安全应用基础

1)DeepSeek及其他AI大模型在网络安全的角色与挑战

2)大模型在网络安全中的核心应用

2.网络安全大模型训练与实战

1)安全大模型的训练与数据处理

2)安全大模型微调、优化与评测

3.安全智能体开发与企业落地

1)基于DeepSeek的安全智能体概述与核心技术

2)网络安全智能体开发与实践

讲师介绍:

沈凯文,云起无垠创始人兼CEO,清华大学网络空间安全博士,蓝莲花、Tea-Deliverers核心成员,拥有十年以上安全研究及攻防渗透经验,曾在USENIX Security、CCS、NDSS等四大网络安全顶级国际会议发表七篇论文,并在DEFCON、HITCON等国际顶尖黑客攻防竞赛中斩获十多次优异成绩。在国际安全极客大赛漏洞挑战赛中斩获第一名佳绩,并列入2019年GeekPwn的“极棒名人堂”。在行业贡献与成就方面,被评为《2023胡润U30中国创业先锋》、《数字安全创新贡献十大人物》、《2023年度技术突破奖》、《GEEKCON-GPT前沿突破奖》和《ISC创新能力奖》得主。

8月5日

上午

课程名称:大模型驱动的实体画像应用实践

课程简介:

应 用:1. 实体归属智能研判;2. 资产功能角色动态判定;3. 业务场景风险推理;4. 漏洞信息自动化提取与关联管理。

智能体理论:基于anthropic《building effective AI agents》以及Google Agent whitePaper介绍什么是智能体以及智能体的工作原理;SOTA多智能体架构以及几种常见设计模式;介绍MCP以及A2A协议在开发多智能体架构中的使用场景。

动手实践:基于多智能体的漏洞情报分析demo。

讲师介绍:

高宇航,奇安信羲和实验室安全研究员,深耕AI赋能网络攻防实践,致力于AI技术在安全领域的深度应用。主导研制多模态智能安全防御及威胁检测产品,推动大模型在复杂网络安全场景中的深度应用与实践;担任知名安全赛事及算法竞赛评委,活跃于安全社区与顶级算法竞赛,兼具研究洞察能力与实践转化能力。

王鹏,奇安信羲和实验室安全研究员,专注于大语言模型与网络安全的融合应用。聚焦基于大模型的资产深度分析,大幅提升网络资产利用价值;构建基于大模型的漏洞自动化挖掘平台,全流程自动化识别漏洞细节及漏洞模式。通过AI技术与安全场景的深度结合,持续推动网络空间测绘与漏洞挖掘的智能化升级,助力构建更高效、精准的安全防护体系。

下午

课程名称:基于大模型的漏洞挖掘技术

课程简介:

1. 第一部分

(1)大模型漏洞挖掘技术背景

(2)大模型融合静态代码分析挖掘漏洞原理与案例

介绍静态代码分析漏洞挖掘技术的发展现状。

详细介绍PrimeVul等最先进成果。

详细介绍微调LLM进行漏洞挖掘的具体过程。

(3)大模型融合智能体挖掘漏洞原理与案例

详细介绍Naptime与Big Sleep等Agent漏挖最先进成果。

(4)大模型漏洞挖掘编程实战

编程实现基于LLM分析代码的漏洞挖掘工具。

(5)现场答疑

学生提问环节。

2. 第二部分

(1)模糊测试技术背景和发展

(2)大语言模型结合模糊测试发展现状

介绍大语言模型当前技术发展情况,包括Agent,工作流,RAG,微调等。

分别从源码模糊测试,网络协议测试,web模糊测试三个方面分别介绍当前是如何将大语言模型融合到模糊测试中。

(3)大语言模型结合模糊测试先进成果解析

详细介绍CKGFuzzer,G2Fuzz当前最先进成果。

(4)大语言模型结合模糊测试编程实战

编程生成具有更高覆盖率的种子。

(5)现场答疑

学生提问环节。

讲师介绍:

尹斌,东南大学硕士,现任奇安信技术研究院安全研究员 。2013年硕士毕业于东南大学自动化学院,同年在Citrix从事静态代码分析工作,2016年到2023年在Trend Micro从事AI算法在安全领域研发工作,目前从事基于大模型的智能化漏洞挖掘系统研发工作。其主要研究方向为AI在安全领域的算法研发,在该领域有9年研发经验,曾获多项自研AI算法专利与竞赛获奖,多项自研AI算法检测到恶意软件与CVE授权,并获得Github的Arctic Code Vault Contributor。Datacon漏洞分析赛道出题人,2024年看雪安全开发者峰会上发表“大模型恶意代码检测”技术演讲。

张兴,博士,现任奇安信技术研究院安全研究员。2021年博士毕业于国防科技大学信息与通信工程专业,2021年至2024年在国防大学从事军事网络信息安全教学研究工作,2024年底少校军衔退役,目前从事基于大模型的模糊测试研究工作。主要研究方向为智能化软件漏洞挖掘分析,在该领域有8年研究经验,曾经获得第一二届全国RHG竞赛一等奖,并在Usenix Security、ICSE等会议期刊上发表研究成果。

8月6-7日

网络空间安全“导师面对面”学术交流活动

8月7日

结营仪式


报名方式


扫描下方二维码进行线上报名。

缴费方式


 账户名称:北京蓝莲网安科技有限公司

银行账号:321020100100217338(兴业银行北京东城支行)

或添加会务组杨洁微信进行缴费


联系方式


意向报名同学可扫描二维码加入咨询微信群或添加助教微信进群:

杨洁  15810080675  

欣蕾  13718411604

相关阅读


人工智能赋能网络安全——InForSec & DataCon 2025年网络空间安全大学生夏令营开始报名啦!

蝉鸣半夏,心向网安!2024InForSec夏令营圆满落幕

2024年InForSec网络空间安全大学生夏令营“导师面对面”专题学术活动成功召开

InForSec

转发有奖

关注InForSec公众号+分享本篇文章至朋友圈或网络安全相关社群(保留分享到开奖日)可获得抽奖资格,即可赢取InForSec定制书包。



阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

InForSec2025夏令营 人工智能 网络安全 大模型 西安电子科技大学
相关文章