This extended abstract introduces Self-Explaining Contrastive Evidence Re-Ranking (CER), a novel method that restructures retrieval around factual evidence by fine-tuning embeddings with contrastive learning and generating token-level attribution rationales for each retrieved passage. Hard negatives are automatically selected using a subjectivity-based criterion, forcing the model to pull factual rationales closer while pushing subjective or misleading explanations apart. As a result, the method creates an embedding space explicitly aligned with evidential reasoning. We evaluated our method on clinical trial reports, and initial experimental results show that CER improves retrieval accuracy, mitigates the potential for hallucinations in RAG systems, and provides transparent, evidence-based retrieval that enhances reliability, especially in safety-critical domains.


翻译:本扩展摘要介绍了自解释对比证据重排序(CER)这一新方法,该方法通过对比学习微调嵌入向量并为每个检索段落生成词级归因解释,围绕事实证据重构检索过程。基于主观性准则自动选择困难负例,迫使模型拉近事实性解释,同时推离主观或误导性解释。因此,该方法构建了与证据推理明确对齐的嵌入空间。我们在临床试验报告上评估了该方法,初步实验结果表明:CER提升了检索准确率,缓解了RAG系统中可能产生的幻觉问题,并提供透明、基于证据的检索机制,显著增强了可靠性,尤其在安全关键领域。

0
下载
关闭预览

相关内容

排序是计算机内经常进行的一种操作,其目的是将一组“无序”的记录序列调整为“有序”的记录序列。分内部排序和外部排序。若整个排序过程不需要访问外存便能完成,则称此类排序问题为内部排序。反之,若参加排序的记录数量很大,整个序列的排序过程不可能在内存中完成,则称此类排序问题为外部排序。内部排序的过程是一个逐步扩大记录的有序序列长度的过程。
DeepSeek模型综述:V1 V2 V3 R1-Zero
专知会员服务
116+阅读 · 2月11日
《图简化(Graph Reduction)》最新综述
专知会员服务
31+阅读 · 2024年2月10日
【Google AI-Yi Tay】Transformer记忆为可微搜索索引”(DSI)
专知会员服务
10+阅读 · 2022年3月4日
专知会员服务
17+阅读 · 2021年8月24日
专知会员服务
29+阅读 · 2020年10月2日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
Arxiv
0+阅读 · 11月29日
VIP会员
相关VIP内容
DeepSeek模型综述:V1 V2 V3 R1-Zero
专知会员服务
116+阅读 · 2月11日
《图简化(Graph Reduction)》最新综述
专知会员服务
31+阅读 · 2024年2月10日
【Google AI-Yi Tay】Transformer记忆为可微搜索索引”(DSI)
专知会员服务
10+阅读 · 2022年3月4日
专知会员服务
17+阅读 · 2021年8月24日
专知会员服务
29+阅读 · 2020年10月2日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员