安全学术圈 09月23日
加密流量分类的挑战与对策
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入探讨了网络流量分类(NTC)在加密通信普及背景下面临的挑战。研究指出,许多现有NTC方法过度依赖过时的数据集,这些数据集可能包含未加密流量或已废弃的加密套件(如3DES和RC4),导致模型训练和评估结果具有误导性。此外,研究还揭示了NTC模型中普遍存在的过拟合问题,包括数据泄露、上下文和时间过拟合,这些问题源于对会话特定特征的过度依赖,削弱了模型的泛化能力。为解决这些问题,文章提出了新的数据集CipherSpectrum,并对设计选择和假设进行了严格验证,强调了未来研究应关注如何避免数据伪迹,合理利用头部信息和负载长度,以构建更稳健、泛化能力更强的NTC模型。

😞 **过时数据集的误导性**:当前许多网络流量分类(NTC)研究依赖于2018年之前收集的数据集。这些数据集可能包含未加密流量或已废弃的加密套件(如3DES和RC4),这会给机器学习模型的训练和评估带来误导性的结果,并可能导致模型在实际应用中失效。

overfitting**:研究发现,NTC模型普遍存在过拟合现象,主要体现在数据泄露(如SNI的暴露)、上下文过拟合(依赖协议特定伪特征)和时间过拟合(依赖时序动态特征)。这些问题源于对会话特定特征的过度依赖,而非流量本身的内在属性,严重影响了模型的泛化能力和实际部署的可靠性。

🤔 **未经证实的假设与新数据集的必要性**:现有研究中存在关于加密数据包模式的相互矛盾和未经证实的假设。为了解决现有数据集的局限性,例如未加密流量的存在和过时的加密算法,本文提出了一个新的、包含TLS 1.3强制/推荐加密套件的现代数据集CipherSpectrum,为开发更可靠的NTC模型提供了基础。

⚖️ **未来研究方向与最佳实践**:实验结果表明,高性能的加密流量分类模型往往依赖于不稳定的特征,而非真正可泛化的模式。未来的研究应避免依赖数据伪迹,合理利用头部信息和负载长度,并结合新数据集进行全面评估,以提升模型的稳健性和泛化能力。

原创 崔文韬 2025-09-22 21:30 四川

本文展示了这些过时的数据包含未加密的流量或使用已经废除的加密套件(3DES和RC4)

原文标题:SoK: Decoding the Enigma of Encrypted Network Traffic Classifiers原文作者:Nimesha Wickramasinghe, Arash Shaghaghi, Gene Tsudik, Sanjay Jha原文链接:https://ieeexplore.ieee.org/abstract/document/11023502发表会议:S&P笔记作者:崔文韬@安全学术圈主编:黄诚@安全学术圈编辑:张贝宁@安全学术圈

1、研究背景NTC(Network Traffic Classification,网络流量分类)是一个基本的处理流程,将流量标识并将流量分类为预定义好的类中。NTC对于网络管理、网络安全、QoS(服务质量)提升以及恶意拦截都很重要。但是由于加密协议尤其是TLS1.3的普及,对传统的NTC方法提出了重大挑战。加密的通信会掩盖数据包内容,使得许多传统的分类技术无法发挥作用,因此需要采用不依赖于明文数据包中的签名的新方法(例如,深度包检测)。因此,研究人员越来越多地转向机器学习和深度学习来应对这些挑战。然而,目前的加密流量分类技术面临着诸多挑战:

目前研究过于依赖2018年之前收集的过时数据。本文展示了这些过时的数据包含未加密的流量或使用已经废除的加密套件(3DES和RC4),这在训练和评估机器学习模型时会导致迷惑性的结果。

在开发NTC模型时所做出的设计选择。许多研究忽略了由于会话特定的特征而导致的过拟合的可能性,这些特征通常缺乏信息(即在会话建立过程中使用伪随机值进行初始化)。本文研究发现,这会导致流量分类器在测试数据上表现良好,但却无法推广到实际场景中,从而削弱了其稳健性和可靠性。

NTC领域充斥着未经证实且往往相互矛盾的假设。许多研究都假设密码的伪随机性会导致加密数据载荷中会出现可识别的模式,这些模式可以被应用于NTC。但是TLS1.3确保了对密文唯一可学习的特征就是其长度。此外,对于诸如截断或填充数据包数据等操作对分类性能的影响存在争议。这些相互矛盾的观点造成了混乱,并阻碍了有效网络流量分类方法的开发。

本文的主要贡献是:

知识的系统化:本文全面分析了NTC研究,确定了他们的设计选择和基准测试套件。

讨论NTC中的陷阱:通过严格评估广泛使用的网络流量数据集,设计选择和常见假设,本文在网络流量分类中识别并演示了常见的陷阱。

Cipherspectrum:本文介绍了当代网络流量数据集Cipherspectrum,以解决现有数据集的局限性。对于密码无关的NTC方法,该数据集统一展示了使用 TLS 1.3 中所有三种强制/推荐密码套件进行加密的流量会话。

未来展望:基于所积累的经验教训,本文提出了最佳实践和未来的研究方向,从而能够开发出准确、具有普遍适用性且适用于实际场景的NTC。

笔记作者注:本文中所涉及的NTC方法均是直接使用原始流量数据的方法,不涉及只使用统计特征与包长序列等经过数据工程处理后的方法。)

2、分类学与分类法2.1 设计选择NTC系统的设计涉及一系列辅助决策,这些决策会影响其功能、准确性和对特定任务的适用性。关键的设计考量因素包括数据的粒度数据提取方法以及分析所选用的原始特征。此外,如MAC 地址、IP 地址和协议端口通常被称为SII(Strong Identification Information,强识别信息)。是否使用 SII 也是一项重要的设计选择。如图1所示,每一个选择都会影响分类器处理网络数据的方式,这对于提升分类器的能力至关重要。

2.1.1 数据粒度流量粒度定义了对网络流量进行分析和分类所涉及的详细程度。分为了四个粒度:包、突发、流和会话。

包(packet)级:最小的分析单位,每一个数据包都被单独分类。

突发(burst)级:顾名思义,突发被定义为在短时间内连续传输的一组数据包,期间会有一段空闲时间。一个突发包括由突发时间阈值定义的指定时间窗口内到达的所有包。

流(flow)级:在本文中,将所有具有相同五元组(源IP、源端口、目的IP、目的端口和协议)的单向数据包归为一组,每个流就是这些数据包的集合。

会话(session)也叫双向流(Bi-Flow)级:将两个端点之间的流量流合并为单一的粒度,方法是将两个方向的流量都视为一个对话的一部分。

2.1.2 数据提取方法一旦确定了流量数据的粒度,接下来需要做出的关键设计选择就是选择一种数据提取策略。该策略规定了如何从选定的粒度级别获取数据以及如何对其进行表征。参考图1,本文将数据提取策略分为以下几种类型:

类别1 前m个字节:该策略包括从选定粒度级别的整个数据段中提取前 m 个字节,无论该粒度级别是包、突发、流还是会话。这种方法将选定的粒度视为一个连续的数据流,而不考虑单个数据包的边界或其中包含的包数量。如图 1 所示,这种方法是针对包级粒度的默认设置——实际上也是唯一可用的选项——在这种情况下,会提取每个数据包的原始信息以进行分类。

类别2 n个包的前m个字节:该策略从选定粒度(除了包级)中选择n个数据包,将这n个数据包作为一条流,从这个流中取出前m个字节。如果这 n 个数据包的总字节数小于 m,则会进行填充以达到所需的字节长度。相反,如果总大小超过 m,则会截断以匹配指定的大小。

类别3 每个包的前m个字节(共n个包):该方法从选定粒度内的 n 个连续的数据包,从每个数据包中分别提取前 m 个字节,从而总共得到 m × n 个字节。通过保留数据包的边界并单独处理每个数据包的起始字节,这种方法保持了网络流量的结构完整性。

对于类别2类别3来说,还有一个额外的选择需要考虑,即怎么选择这n个数据包,有以下两种主要的选项:

前n个包:此选项会根据选定粒度(突发、流或会话)选择初始的 n 个数据包,假设最早到达的数据包通常包含关键信息,例如协议握手或初始数据交换内容。

任意连续的n个包:这 n 个数据包可以是任意连续的序列(在该粒度范围内),这样就能灵活地捕捉在通信的不同阶段可能出现的模式。

2.1.3 原始特征确定好数据粒度与提取方式后,下一个需要考虑的问题就是如何选择原始特征,如图1所示,原始特征指的是直接从网络流量中提取未经过预先聚合或者处理的数据。这些特征在NTC中起着关键作用,因为它们往往能够捕捉到准确分类所必需的独特模式。流量粒度的选择和数据提取策略决定了可以使用的原始特征的可用性、范围和类型。总的来说,这些特征可以分为数据包头部信息和应用层数据包内容。

数据包头提供了有关数据包在网络中传输路径的必要元数据。

Layer-2:以太网层包含诸如源 MAC 地址和目标 MAC 地址等属性,这些属性用于标识本地网络中的设备。

Layer-3: 网络层主要包含诸如源 IP 地址和目标 IP 地址等属性,这些属性对于在网络之间传输数据至关重要。

Layer-4: 传输层主要由源端口和目标端口组成,同时还包含其他流量控制和错误恢复功能。

Layer-7: 应用层数据包包含了应用程序传输的实际数据。然而,随着加密协议的日益普及,其中大部分数据都被加密了,这限制了对原始明文数据进行分析的可行性。

2.1.4 强识别信息在确定了原始特征之后,设计NTC系统时的另一个关键考量因素是是否使用强标识信息(SII),如图 1 所示。SII 指的是直接标识用户、设备或应用程序的特征,它提供了极具区分性的信息,能够显著提高分类的准确性。SII 的典型例子包括:以太网层中的 MAC 地址 ,这是网络接口的唯一标识符;网络层中的 IP 地址,用于为网络中的设备分配数字标签;以及 传输层中的协议端口,这是特定应用程序或服务的数字标识符。

尽管有一些工作对这些强识别信息进行混淆以减少过拟合,但其他研究则选择合并SII以利用其判别能力。

2.2 下游任务和基准测试NTC涵盖了诸多下游任务,旨在识别特定的网络活动、应用程序或安全威胁。在此背景下,基准测试涉及选择合适的数据集,以严格测试和验证分类器在执行选定的下游任务时的效能。有许多公开数据集可供使用作为基准,每个数据集都针对特定的分类任务。

恶意流量检测:包括恶意软件通信、网络入侵以及僵尸网络流量。USTCTFC2016 数据集提供了恶意和良性流量的样本,这使得能够开发出能够在网络流量中检测出恶意软件的分类器。同样,CIC-IDS2018 数据集包含了各种入侵场景以及良性流量。此外,CIC-IoT2022 和 Bot-IoT 数据集侧重于物联网环境,提供了包括正常设备活动和与僵尸网络相关的恶意行为在内的流量数据。

加密匿名流量分类:对加密和匿名化的流量进行分类,例如虚拟专用网络(VPN)和“洋葱路由器”(Tor)通信数据。ISCXVPN2016 数据集包含了来自 VPN 和非 VPN 连接的流量数据,有助于研究人员创建能够识别 VPN 使用情况的模型。同样,ISCXTor2016 数据集专注于 Tor 流量分类,提供了 Tor 和非 Tor 流量样本。

应用识别:CSTNET-TLS1.3 数据集通过提供使用 TLS 1.3 的网络通信样本,支持了网络流量的分类工作。CrossPlatform Application 数据集则提供了由不同平台(包括安卓和 iOS)的各种移动应用程序所产生的网络流量。

除了这些公开数据集之外,许多研究也会使用从运营网络或受控实验中收集的私有数据集评估网络流量分类器。

3、NTC中未解决的问题3.1 过时的数据集表 1 中所总结的文献表明,许多研究仍依赖于 2018 年之前收集的网络流量数据集。这种依赖引发了担忧,因为自那时起,加密协议和密码套件已经发生了显著变化。具体而言,诸如 TLS 1.3 这样的协议已经淘汰了诸如 3DES 和 RC4 等算法,并强制或强烈推荐使用增强型密码套件。此外,TLS 1.3 对之前以明文形式传输的握手过程的部分内容进行了加密。

这些变化减少了网络流量分类器所能获取的元数据和可观察到的模式。因此,使用较旧数据集开发的模型以及它们所基于的假设,可能无法充分考虑到这些变化。将这些模型应用于当前的网络流量可能会导致性能下降,甚至完全失效。

3.2 设计选择中的疏漏NTC 模型往往会出现过拟合的情况,原因在于其在特征选择方面不够谨慎。特征的选择往往是在不考虑所选的流量粒度和数据提取策略的情况下做出的。本文将这种过拟合的倾向分为三种类型:数据泄露过拟合、上下文过拟合和时间过拟合。

3.2.1 数据泄露过拟合数据泄露过拟合指的是模型在训练过程中学习到了推理过程中不应该出现的特征,会导致一种效果很好的错觉,但是这种效果无法推广到实际场景中。另一个问题是将SNI(Server Name Indication,服务器名称指示)暴露给模型。由于在数据集的收集过程中会根据SNI对流量打标签,所以再将SNI暴露给模型就会创造一个模型可以利用的潜在捷径。

具体来说:

按前 m 个字节取数据时,若覆盖到 TLS ClientHello,就会包含 SNI。

典型大小:TCP 三次握手≈162B;ClientHello≈600B ⇒ m > 700B 大概率含 SNI。

按前 n 个数据包取数据时,ClientHello 通常在第 4 个包 ⇒ n ≥ 4 大概率含 SNI。

并且,TLS 1.3 的 Encrypted Client Hello机制会加密 SNI;会话重建等场景也可能没有握手。所以依赖 SNI 的模型在实际场景中易失效。

3.2.2 上下文过拟合上下文过拟合指:模型学会,利用数据中那些与目标类别内在本质无关的不相关特征或依赖于特定上下文的模式。在 NTC 领域中,上下文过拟合的情况出现在模型利用的是网络协议或特定实现所产生的伪特征,而非目标应用程序所生成的流量的内在属性时。

与数据泄露过拟合不同,上下文过拟合影响的是那些将单个 TCP/UDP 会话拆分为多个训练样本和测试样本的研究的分类器。

例如,根据 RFC 791、RFC 6864 和 RFC 6274 的规定,Layer-3(IP 头)中的 IP 标识(IP ID)字段在每个会话开始时通过伪随机数生成器进行初始化,并且对于每次传输的数据包依次递增。因此,高位部分保持相对稳定。

类似地,IP 头部校验和是 IP 头中所有 16 位字的二进制求和的 16 位反码,也存在过拟合问题。由于属性的不断变化,例如 IP 标识和总长度,头部校验和会随每个数据包而变化。然而,在一个会话中,具有相似总长度且 IP 标识仅有细微差异(即相邻数据包)的包具有相似的校验和值。

3.2.3 时间过拟合当模型捕捉到与应用程序行为无关的时序变化(如网络的动态变化或系统配置等)而随时间波动的特征时,就会出现时间过拟合现象。这些特征可能会呈现出与数据收集的时间和环境相关的表层模式,从而导致模型无法良好泛化。

例如 TCP 的时间戳选项,每个 TCP 数据段都包含一个由发送方设置的 32 位时间戳值(TSval)以及来自远程主机的 32 位时间戳回显响应(TSecr)。TSecr 字段反映了在前一个数据段中从发送方接收到的 TSval,从而能够进行更准确的往返时间(RTT)测量。由于会话中的数据包是快速连续发送的,因此 TSval 和 TSecr 的最高有效位是一致的。

另一个例子是 TCP 窗口大小,它是一个由发送方和接收方协商的动态值,用于管理流量控制并优化数据传输。窗口大小受多个与流量类别无关的因素影响,如可用的接收缓冲区、网络拥塞程度、带宽延迟产品(BDP)以及路径最大传输单元(MTU)。在网络拥塞严重的时期,窗口大小可能会减小窗口大小以防止数据包丢失。如果模型依赖于 TCP 窗口大小作为特征,它们可能会过度拟合到收集数据所依据的瞬态网络条件上。

由于这些特征会根据诸如会话内的时间因素、网络拥塞情况以及缓冲区可用性等时间敏感因素而变化,因此不应将其用于分类。这些因素反映的是临时的网络状态,而非流量本身的固有特性,从而限制了模型在不同网络环境中的泛化能力。

表 2 总结了所讨论的原始特征所具有的过拟合倾向。

它详细说明了每个特征可能引入的过拟合类型,以及受影响的流量粒度和数据提取策略。值得注意的是,表 1 中列出的所有研究都没有采取任何措施来掩盖或隐藏这些与会话相关的特定属性。因此,尽管这些特征在熟悉的数据上可能有助于提高性能,但有可能无法进行泛化。

3.3 未经证实的假设对相关文献的研究表明,存在着一些未经证实且往往相互矛盾的设计选择方面的假设。

如表 1 所示的所有研究均采用了加密的数据包(L7)这一方式,但其理论依据各不相同。

一些研究表明,加密数据包中存在一些固有的模式,这些模式是由加密算法的不完全随机性所导致的。然而,TLS 1.3 确保了相同的明文总是会生成不同的密文,这是因为使用了诸如 AES-128-GCM、AES-256-GCM 和 ChaCha20Poly1305 这样的认证加密与关联数据(AEAD)加密算法,并且采用了唯一的初始化向量(IV)。鉴于这些强大的安全措施,声称机器学习模型仍能直接从加密数据包中学习并利用模式的说法令人担忧。这表明加密套件可能存在潜在的漏洞,暗示加密通信可能不如预期的那样安全或随机。

在对加密数据包是否足以进行分类这一问题的看法上也存在不一致之处:有几项研究认为,无论是元数据(L2、L3 和 L4)还是加密数据包(L7),对于准确分类都是必不可少的。然而,另一些研究则认为仅加密数据包就已足够。

此外,表 1 中列出的所有研究均采用截断和填充技术,以创建一个一致且固定长度的嵌入,用于训练所提出的机器学习模型。然而,一些研究认为,为了适应固定大小的表示而改变数据包长度可能会导致重要信息的丢失,从而对模型的分类性能产生负面影响。

4、解读 NTC 的保真度针对上述的三个问题,本文进行了实验分析与验证。

4.1 NTC数据集评估数据集选择:本文选取了表 1 中的多篇研究都提及的公共数据集,以及那些声称包含TLS1.3流量的数据集。

方法:为了系统地评估所选数据集中存在的加密协议和加密算法,本文作者对pcap文件进行处理,并使用tshark工具提取相关的加密信息。伪代码算法 1 所示:

从每个pcap文件中提取出所有唯一的会话标识符,这些标会话识符涵盖了TCP和UDP会话,从而能够对数据集进行全面的分析。然后遍历每一个会话ID,确定该会话是否加密。此任务通过检查是否存在诸如用于TCP 会话的 TLS 或用于 UDP 会话的 DTLS/QUIC 等加密协议来完成。

加密会话:如果某个会话是加密的,将该数据集的加密会话计数器进行加一操作。然后,通过检查 TLS 握手数据包中的“Server Hello”包来尝试确定会话所使用的具体加密套件。假设由于缺少握手数据包而无法确定加密套件,那么将会话计数器的值加一,以涵盖使用未识别加密方法的会话。如果能够确定加密套件,将提取加密算法并将其加密会话计数器加一。这有助于了解数据集中不同加密算法的分布和呈现情况。

未加密会话:如果某个会话未进行加密,则将未加密会话的计数加一。此类会话包括以明文形式传输的会话或与加密协议无关的会话。在处理完一个 PCAP 文件中的所有会话后,就继续处理数据集中的下一个文件。通过汇总所有 PCAP 文件的统计数据,本文构建出了关于加密使用情况和密码套件分布的详细概览。

传统数据集中的加密处理。所选数据集的加密使用情况分析结果如图 2a 所示。在五个测试的数据集中,只有CSTNET-TLS1.3如所宣称的那样完全包含了加密网络流量。一些传统的数据集如ISCXVPN2016 和 USTC-TFC2016却显示存在大量未加密的流量。

加密算法的使用情况:如图 2b 所示,CSTNET-TLS1.3包含的流量全部是使用当前安全的 AEAD 加密算法加密的,这符合 TLS 1.3 的建议。相比之下,2018 年之前的数据集,如 ISCXVPN2016、ISCXTor2016 和 USTC-TFC2016,所包含的流量会话使用的是过时的算法如 CBC 模式的 AES(128 位和 256 位)、3DES 和 RC4,这些算法由于已知的漏洞在当代安全标准中已被弃用。对过时加密算法的依赖进一步限制了传统数据集在开发和基准测试分类器方面的有效性。并且尽管像 ChaCha20Poly1305 这样的安全加密算法正逐渐得到广泛应用,但它们在公开数据集中的占比仍然偏低。

4.2 CipherSpectrum前文的分析指出了现有公共数据集未加密以及使用的加密协议过时。此外,文献表明,许多公开可用的数据集是流量特征(即提取的统计数据)而非原始流量。虽然这些数据集对于基于统计的网络威胁检测(NTC)很有价值,但它们不适合基于原始信息或多模态方法的分析。因此,许多研究人员被迫依赖自行收集或私有的流量数据集,这损害了他们结果的可重复性和可信度。此外,一些公开可用的数据集,如 ISCXVPN2016,存在显著的类别不平衡问题,这可能会对那些对这种不平衡敏感的深度学习模型的性能产生不利影响。

为了解决这些问题并为后续实验提供支持,本文开发了一个新的网络流量数据集:CipherSpectrum。CipherSpectrum 包含使用由 TLS 1.3 强制/强烈推荐的现代加密套件进行加密的网络流量,为基于原始信息的网络威胁检测研究提供了坚实的基础。

组成:CipherSpectrum 由 40 个不同领域的加密 TCP/UDP 会话构成(每个领域由代表其流量的使用三大 TLS 1.3 加密套件进行加密的流量来表示)。具体而言,对于每个领域和加密套件,CipherSpectrum 包含 1000 个 TCP/UDP 会话样本,总计 120,000 个会话(40 个领域 × 每个领域 3 种加密套件 × 每种套件 1000 个会话)。例如,对于 example.com 的流量,包括 1000 个使用 TLS-AES-128GCM-SHA256 的会话、1000 个使用 TLS-AES-256-GCM-SHA384 的会话以及 1000 个使用 TLS-CHACHA20-POLY1305-SHA256 的会话。为了支持开发强大的且通用的 NTC 模型,并促进反映各种加密流量场景的研究,本文作者公开了 CipherSpectrum 的内容。

(CipherSpectrum: https://cspectrum.web.cse.unsw.edu.au)

4.3 设计选择与假设验证本节是对现有方法在设计选择中存在疏忽以及未经证实的假设这两个问题的探讨。主要选择的数据集是CipherSpectrum 和 CSTNET-TLS1.3 。选择的方法是 ET-BERT 和 YATC。

遮挡策略:遮挡策略是指在实验中,对关键的信息进行遮挡以分析其对结果的影响。分析中所采用的遮挡策略表 3 中进行了总结。A1 遮挡方式涵盖了所有数据,它提供了基准性能指标。D1 遮挡方式旨在测试基于强识别信息(SII)的数据泄露过拟合,在 D2 中,通过将相关字节替换为随机十六进制值来消除服务器名称指示(SNI),从而能够研究基于 SNI 的数据泄露过拟合的程度。还利用 C 和 T 重叠来评估上下文和时间上的过拟合情况。在这些重叠中,随机改变与上下文和时间相关的头部特征,以确定模型对这些会话特定的特征的依赖程度。为了评估所有这些过拟合捷径的综合影响,CTD 重叠会随机改变或移除与 D1、D2、C 和 T 重叠相关的所有特征。

为了研究头信息和数据包内容在 NTC 中的不同作用,实施了 H1 和 P1 的遮挡操作。所有头信息都保留在 H1 中,而数据包内容则被删除并填充为统一长度的 0x00。这确保了可以观察到模型仅依赖于头信息的情况,而不会受到数据包内容变化的影响。相反,在 P1 中,所有头信息都被删除,消除了头信息中的所有标识性元数据。此外还从表示中去除 TCP 选项,以避免因头信息长度的可变性而产生意外影响,从而使分析仅专注于数据包内容对分类性能的贡献。

E1、E2 和 E3 这三种遮蔽测试是为了评估最先进的分类器是否能够识别加密数据包中的模式,还是仅仅依赖于数据包长度。在 E1 中,通过删除所有明文信息(例如头部细节)来隔离加密数据包,以衡量其单独的影响。在 E2 中,使用 0xFF 对加密数据包进行掩码处理,去除其固有的随机性,只留下数据包长度作为潜在特征。最后,在 E3 中,使用与类别标签无关的伪随机值替换加密数据包,模拟出完美的随机性。这种配置进一步帮助我们确定是否有任何可辨别的模式是数据包长度的产物,而非加密引起的缺陷。这三种遮蔽技术均应用于那些不依赖于前 m 字节或前 n 个数据包的数据提取策略,因为这些策略由于握手数据包的存在,并不完全包含加密数据包。

实验结果

总结:综合实验结果表明,当前加密流量分类模型的高性能往往依赖于不稳定或无信息量的特征,如 SII、会话上下文字段及时间相关字段,并在一定程度上借助加密负载长度,而非真正可泛化的流量模式。加密负载内容本身不足以支撑分类,头部信息与负载长度才是主要依据;但随意截断或填充会破坏关键特征,导致性能下降。因此,未来研究需避免依赖数据伪迹,合理利用头部与负载长度信息,以提升模型的稳健性和泛化能力。

安全学术圈招募队友-ing 有兴趣加入学术圈的请联系 secdr#qq.com


专题最新征文


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

网络流量分类 加密流量 机器学习 TLS 1.3 数据集 过拟合 CipherSpectrum Network Traffic Classification Encrypted Traffic Machine Learning TLS 1.3 Dataset Overfitting
相关文章