Existing solutions for bundle recommendation (BR) have achieved remarkable effectiveness for predicting the user's preference for prebuilt bundles. However, bundle-item (B-I) affiliation will vary dynamically in real scenarios. For example, a bundle themed as 'casual outfit' may add 'hat' or remove 'watch' due to factors such as seasonal variations, changes in user preferences or inventory adjustments. Our empirical study demonstrates that the performance of mainstream BR models may fluctuate or decline under item-level variability. This paper makes the first attempt to address the above problem and proposes a novel Residual Diffusion for Bundle Recommendation(RDiffBR)asamodel-agnostic generative framework which can assist a BR model in adapting this scenario. During the initial training of the BR model, RDiffBR employs a residual diffusion model to process the item-level bundle embeddings which are generated by the BR model to represent bundle theme via a forward-reverse process. In the inference stage, RDiffBR reverses item-level bundle embeddings obtained by the well-trained bundle model under B-I variability scenarios to generate the effective item level bundle embeddings. In particular, the residual connection in our residual approximator significantly enhances BR models' ability to generate high-quality item-level bundle embeddings. Experiments on six BR models and four public datasets from different domains show that RDiffBR improves the performance of Recall and NDCG of backbone BR models by up to 23%, while only increases training time about 4%.


翻译:现有捆绑推荐解决方案在预测用户对预构建捆绑包的偏好方面已取得显著成效。然而在实际场景中,捆绑包-项目关联关系会动态变化。例如,以'休闲穿搭'为主题的捆绑包可能因季节变化、用户偏好调整或库存变动等因素增加'帽子'或移除'手表'。我们的实证研究表明,主流捆绑推荐模型在项目级可变性场景下的性能可能出现波动或下降。本文首次尝试解决该问题,提出了一种新颖的残差扩散捆绑推荐框架——作为模型无关的生成框架,可辅助捆绑推荐模型适应此类场景。在捆绑推荐模型初始训练阶段,RDiffBR采用残差扩散模型处理由捆绑推荐模型生成的项目级捆绑嵌入表示,通过前向-反向过程捕捉捆绑主题特征。在推理阶段,RDiffBR对训练完备的捆绑模型在捆绑包-项目可变性场景下获得的项目级捆绑嵌入进行反向重构,生成有效的项目级捆绑嵌入表示。特别指出,我们设计的残差逼近器中的残差连接结构显著增强了捆绑推荐模型生成高质量项目级捆绑嵌入的能力。在六个捆绑推荐模型和四个跨领域公开数据集上的实验表明,RDiffBR能将骨干捆绑推荐模型的Recall和NDCG指标提升最高达23%,而训练时间仅增加约4%。

0
下载
关闭预览

相关内容

【IJCAI2024教程】大语言模型(LLMs)时代的推荐系统
专知会员服务
51+阅读 · 2024年8月5日
【CVPR2024】MoReVQA:探索视频问答的模块化推理模型
专知会员服务
18+阅读 · 2024年4月10日
专知会员服务
15+阅读 · 2021年9月25日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
预知未来——Gluon 时间序列工具包(GluonTS)
ApacheMXNet
24+阅读 · 2019年6月25日
重构 Palantir 数据模型
待字闺中
25+阅读 · 2018年12月27日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月15日
VIP会员
相关资讯
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
预知未来——Gluon 时间序列工具包(GluonTS)
ApacheMXNet
24+阅读 · 2019年6月25日
重构 Palantir 数据模型
待字闺中
25+阅读 · 2018年12月27日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员