原创 宋坤书 2025-09-18 18:53 四川
本文提出了一种面向加密流量分类的多实例,通过结合数据包注意力和流注意力双层注意力机制捕捉token级和数据包级特征。
原文标题:MIETT: Multi-Instance Encrypted Traffic Transformer for Encrypted Traffic Classification原文作者:Xuyang Chen, Lu Han, Dechuan Zhan, Hanjia Ye原文链接:https://doi.org/10.1609/aaai.v39i15.33748发表会议:AAAI笔记作者:宋坤书@安全学术圈主编:黄诚@安全学术圈编辑:张贝宁@安全学术圈1、研究背景由于加密技术的普及,传统基于端口或统计特征的分类方法逐渐失效,而深度学习通过自动提取原始数据中的特征在一定程度上提升了分类效果,但其高度依赖于大量标注数据。近年来兴起的基础模型则可以根据大量未标记数据进行预训练,并针对特定任务进行微调,但现有方法主要侧重于单个数据包内部特征的建模,往往忽略了数据包之间的关联性,难以有效捕捉更高层次的流级交互特征。同时,由于加密流量中的token语义信息有限,仅依赖token级特征容易丢失流量的整体模式和跨数据包的全局关系,导致对流量行为的表征能力受限。为此,本文提出了一种面向加密流量分类的多实例Transformer(Multi-Instance Encrypted Traffic Transformer, MIETT),通过结合数据包注意力和流注意力双层注意力机制(Two-Level Attention, TLA)捕捉token级和数据包级特征。本文还引入了掩码流预测 (MFP)、数据包相对位置预测(Packet Relative Position Prediction, PRPP)和流对比学习(Flow Contrastive Learning, FCL)这三个预训练任务,以更准确地表示流的结构并区分来自不同流的数据包。实验结果表明,所提出方法在加密流量分类任务中相较于现有方法具有更优的性能表现。2、MIETT模型架构2.1 MIETT编码MIETT架构中多实例流量数据的表示方法,主要包括tokenization、packet representation和flow representation三个关键步骤。首先,tokenization阶段通过对流量的十六进制序列进行bi-gram分词,每两个字节作为一个基本单元,再使用BPE进行编码,生成用于模型训练的token序列;然后,packet representation阶段将每个数据包表示为一个以[CLS]开头的token序列,并固定每个包的长度为128个token;最后,flow representation阶段将多个数据包的表示堆叠成一个三维张量,其中为数据包数量,为数据包长度,为嵌入维度。2.2 MIETT总体架构传统方法在将二维的流量token映射为一维输入时,容易丢失数据包顺序等时间信息,且计算复杂度随包数量和长度增长迅速上升。因此,MIETT引入TLA架构以保留流量的层次结构并提高计算效率,使其可以更有效地捕捉数据包内和数据包间的依赖关系。TLA层架构如下图:
安全学术圈招募队友-ing 有兴趣加入学术圈的请联系 secdr#qq.com
专题最新征文
- 期刊征文 | 暗网抑制前沿进展 (中文核心)
