YongYuan's homepage 09月12日
无需训练的LLM推荐方法STAR
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文提出了一种名为STAR的简单无需训练的推荐方法,该方法利用LLM融合语义与协同信息,适用于各种推荐任务而无需微调。STAR通过两阶段方法——检索和排序——实现推荐,检索阶段结合语义信息矩阵和CI信息矩阵,考虑时间与打分因子;排序阶段使用LLMRank对检索结果进行排序。实验表明,该方法在多个数据集上取得显著提升,尤其对交互行为丰富的领域效果突出。

😊STAR是一种无需训练的LLM推荐方法,通过融合语义信息和协同信息,无需微调即可应用于多种推荐场景,降低了工程复杂性和成本。

🔍检索阶段结合预先计算的语义信息矩阵(基于Geckotext-embedding-004)和CI信息矩阵(采用itemCF相似度计算),并融合时间因子(交互时间越近越重要)和打分因子(用户打分越高越重要)。

🚀排序阶段使用LLMRank对检索结果进行排序,实验发现不同打分方式对结果有显著影响,且候选长度、交互序列长度及交互行为对排序效果影响有限。

📊实验结果表明,STAR在多个数据集上取得显著性能提升,尤其在用户与item交互丰富的领域(如Beauty Hits@10提升23.8%,Toys and Games提升37.5%)效果突出,但在交互稀疏的领域(如Sports and Outdoors)效果提升有限(-1.8%)。

🤔该方法强调了用户- item交互行为的重要性,并指出虽然无需训练简化了流程,但针对特定业务场景仍需进一步优化,且完全替代微调方法可能存在性能瓶颈。

思路动机

LLM最新进展为推荐系统任务提供了有前途的新方法。当前最先进的方法依赖于微调 LLM 来实现最佳结果,但此过程成本高昂且带来了显著的工程复杂性。相反,绕过微调并直接使用 LLM 的方法资源密集程度较低,但往往无法完全捕获语义和协作信息,导致与经过微调的方法相比性能不佳。在本文中,提出了一种简单的无需训练的推荐方法 (STAR),这是一个利用 LLM 的框架,可应用于各种推荐任务而无需微调

comment: 这篇论文,提供了一个将语义与协同信息融合起来的视角,这是这篇论文提供的最大的启发性视角

在LLM里面,考虑user-item interactions交互行为,真的非常非常重要!实验观察到的现象:

Sports and Outdoors 为啥结果提不上来?因为Sports and Outdoors上用户与item的交互,相比其他两个数据集,是很低的。

方法

两阶段方法,方法全局概览:

通过上图得到检索结果。

对检索结果,通过LLMRank排序。

检索

检索阶段,考虑了语义信息、和CI信息。在融合这两者的时候(融合公式里),语义信息和CI信息,有一个权重平衡因子。

同时会考虑:

怎么计算语义信息矩阵、CI信息矩阵?

预先计算好语义信息矩阵(nn,n是item的数量)、以及CI信息矩阵(nn,怎么计算,用的非常典型的itemCF计算item之间的相似度矩阵)

怎么融合?

如果不考虑语义信息,则对item4的打分,就是一个非常典型的itemCF对item4的打分逻辑:

需要融合语义信息矩阵,是在itemCF打分的基础上,做了如下方式的融合:a=0,就是itemCF打分逻辑,只是里面包含了时间因子t、打分因子r:

打分因子r_j: user对item_j的打分,实验发觉r_j全部取1,对结果没什么影响。

a=0和a=1,有消融实验结论,没有贴具体数据。

检索打分公式的影响:

排序

输入:

排序打分逻辑,不同打分方式结果:

候选长度、交互序列的长度,对结果的影响:

rank里面加入一些交互行为的影响:

感觉差异不大。

不同模型对结果的影响:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LLM推荐 STAR方法 无需训练推荐 语义信息 协同信息 推荐系统
相关文章