Existing solutions for bundle recommendation (BR) have achieved remarkable effectiveness for predicting the user's preference for prebuilt bundles. However, bundle-item (B-I) affiliation will vary dynamically in real scenarios. For example, a bundle themed as 'casual outfit' may add 'hat' or remove 'watch' due to factors such as seasonal variations, changes in user preferences or inventory adjustments. Our empirical study demonstrates that the performance of mainstream BR models may fluctuate or decline under item-level variability. This paper makes the first attempt to address the above problem and proposes a novel Residual Diffusion for Bundle Recommendation(RDiffBR)asamodel-agnostic generative framework which can assist a BR model in adapting this scenario. During the initial training of the BR model, RDiffBR employs a residual diffusion model to process the item-level bundle embeddings which are generated by the BR model to represent bundle theme via a forward-reverse process. In the inference stage, RDiffBR reverses item-level bundle embeddings obtained by the well-trained bundle model under B-I variability scenarios to generate the effective item level bundle embeddings. In particular, the residual connection in our residual approximator significantly enhances BR models' ability to generate high-quality item-level bundle embeddings. Experiments on six BR models and four public datasets from different domains show that RDiffBR improves the performance of Recall and NDCG of backbone BR models by up to 23%, while only increased training time about 4%.


翻译:现有捆绑推荐解决方案在预测用户对预构建捆绑包的偏好方面已取得显著成效。然而,在实际场景中,捆绑包与项目之间的关联会动态变化。例如,以“休闲穿搭”为主题的捆绑包可能因季节变化、用户偏好调整或库存变动等因素而添加“帽子”或移除“手表”。我们的实证研究表明,主流捆绑推荐模型在项目级变化性下性能可能出现波动或下降。本文首次尝试解决上述问题,提出一种新颖的残差扩散捆绑推荐框架(RDiffBR)作为模型无关的生成框架,可辅助捆绑推荐模型适应此类场景。在捆绑推荐模型初始训练阶段,RDiffBR采用残差扩散模型处理由捆绑推荐模型生成的项目级捆绑嵌入(用于表征捆绑主题),通过前向-反向过程进行学习。在推理阶段,RDiffBR对训练完备的捆绑模型在捆绑-项目变化场景下获得的项目级捆绑嵌入进行反向重构,生成有效的项目级捆绑嵌入。特别地,残差近似器中的残差连接显著增强了捆绑推荐模型生成高质量项目级捆绑嵌入的能力。在六个捆绑推荐模型和四个跨领域公开数据集上的实验表明,RDiffBR将骨干捆绑推荐模型的召回率与归一化折损累计增益指标提升最高达23%,而训练时间仅增加约4%。

0
下载
关闭预览

相关内容

【CVPR2024】MoReVQA:探索视频问答的模块化推理模型
专知会员服务
18+阅读 · 2024年4月10日
【NeurIPS2022】持续强化学习中的解纠缠迁移
专知会员服务
27+阅读 · 2022年10月3日
专知会员服务
15+阅读 · 2021年9月25日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
预知未来——Gluon 时间序列工具包(GluonTS)
ApacheMXNet
24+阅读 · 2019年6月25日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 11月30日
VIP会员
相关资讯
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
预知未来——Gluon 时间序列工具包(GluonTS)
ApacheMXNet
24+阅读 · 2019年6月25日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员