PaperWeekly 09月14日
HtFLlib:让异构模型间知识迁移成为可能
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了开源的异构模型间知识迁移框架 HtFLlib。该框架旨在解决中小企业利用本地已训练模型的需求,通过异构模型间知识迁移提升模型能力。HtFLlib 在 PFLlib 基础上扩展,重新定义了通讯和模型更新方式,以支持模型异构性,即客户端计算能力、存储空间或任务需求差异。框架通过传输轻量级信息载体而非模型参数来实现知识蒸馏,并探索更通用的信息载体以支持多模态异构大模型。HtFLlib 提供了全面的基准测试,易于使用和扩展,已支持多种模态和常用方法,并计划部署到边缘设备。

💡 HtFLlib 框架旨在解决模型异构性问题,允许不同架构的模型在协同学习中共享知识。它通过传输轻量级信息载体而非完整的模型参数,有效解决了因设备限制或任务需求差异导致的模型不兼容问题,为中小企业利用现有模型提升能力提供了可行方案。

🚀 该框架在 PFLlib 项目基础上进行了扩展和重构,重新定义了通讯和本地模型更新方式,以适应异构模型的特点。它不仅兼容 PFLlib 的数据集和数据异构场景,还支持多种模态(文本、图像、音频)和多种常用的异构联邦学习方法,并提供了全面的基准测试结果。

🛠️ HtFLlib 的设计注重易用性和可扩展性,用户只需修改少量文件即可添加新算法。目前已支持 40 个异构模型,并计划将该框架部署到边缘计算设备上,实现数据采集与模型训练的同步进行,进一步拓展其应用场景。

🏆 HtFLlib 项目在 KDD 会议上发表并获得 Best Paper Runner Up(Datasets & Benchmark Track)的荣誉,显示了其在学术界和业界的认可度,并在 GitHub 上获得了持续增长的关注度。

原创 张剑清 2025-09-12 20:37 北京

让不同架构“说同一种语言”

©PaperWeekly 原创· 作者 | 张剑清

单位 | 上海交通大学

我们在 GitHub 上开源了一个异构模型间知识迁移框架 HtFLlib,中稿 KDD 并获评 Best Paper Runner Up(Datasets & Benchmark Track),目前在 GitHub 的 Star 数正持续增加中,在业内具有一定影响力。

HtFLlib 的开始,源于一次 Ray summit,听到中小企业希望利用他们本地已经训练好的模型,通过异构模型间知识迁移,让彼此变得更强。

于是我们便发起了 HtFLlib 项目,吸引了不少学者共建,他们来自多个机构的:上海交通大学、清华大学(AIR)、北京航空航天大学、重庆大学、同济大学、香港理工大学、贝尔法斯特女王大学等。

论文标题

HtFLlib: A Comprehensive Heterogeneous Federated Learning Library and Benchmark

论文链接

https://dl.acm.org/doi/10.1145/3711896.3737379

开源仓库链接

https://github.com/TsingZ0/HtFLlib

HtFLlib 简介

HtFLlib 项目是在我们更早的一个著名项目 PFLlib 上建立的,但由于异构模型的引入,使得我们需要重新定义通讯方式、本地模型更新方式等,于是我们另起炉灶,但同时也保证 HtFLlib 可以兼容 PFLlib 的数据集和数据异构场景。

大多数现有的个性化联邦学习(PFL)方法——包括我们的 PFLlib——主要关注数据异构性,即客户端之间数据分布的差异,而在很大程度上忽略了由设备限制和任务特定需求引起的模型异构性。

例如,不同客户端可能拥有不同水平的计算能力、存储空间或网络带宽,这使得它们难以满足协同学习的标准要求。然而,这些客户端通常拥有宝贵的私有数据,在这种情况下,采用更小的、异构的模型更为合适。

此外,一些客户端可能需要更大或更小的模型来解决其特定的本地任务。强迫所有客户端采用统一的模型架构会因能力和需求不匹配而阻碍它们参与协同学习。

当考虑模型异构性时,一个关键问题随之产生:在协同训练不同架构的模型时,客户端和服务器之间应该传递什么信息?

▲ 图1:异构模型间知识迁移如何定义通讯方式?

在 HtFLlib 中,我们传输轻量级的信息载体,而不是暴露模型参数,这通常是由知识蒸馏相关方法实现的,而具体实现方式由不同的 HtFL 方法各自决定。我们正在探索更通用的信息载体,以支撑异构大模型(文本&图像&音频等)间知识迁移,迭代进化。

▲ 图2:异构模型间通过信息载体做知识蒸馏

HtFLlib 的特性可以简短描述为:

▲ 图3:HtFL 支持的 3 个模态数据集

关于基准测试的结果、不同技术方法在各种场景下的适用性、规律总结等,详见论文原文。

下一步计划

我们正在进行下一个工作:将 HtFLlib 部署到边缘计算设备上,可以一边采集数据,一边训练模型;我们命名其为 “HtFLlib on Device”。我们目前已经实现在 48 个异构设备(包括不同型号的单片机、手机等)上运行异构模型协同训练,正在收集实验数据,敬请期待。目前已经开源:

https://github.com/TsingZ0/HtFL-OnDevice

最后,非常感谢社区大家对 HtFLlib 项目的认可与支持,也欢迎大家一起参与到 HtFLlib 及其衍生项目的建设中来!

更多阅读

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

HtFLlib 异构联邦学习 知识迁移 模型异构性 KDD 开源框架 Heterogeneous Federated Learning Knowledge Transfer Model Heterogeneity Open-source Framework
相关文章