Fairness is a core element in the trustworthy deployment of deepfake detection models, especially in the field of digital identity security. Biases in detection models toward different demographic groups, such as gender and race, may lead to systemic misjudgments, exacerbating the digital divide and social inequities. However, current fairness-enhanced detectors often improve fairness at the cost of detection accuracy. To address this challenge, we propose a dual-mechanism collaborative optimization framework. Our proposed method innovatively integrates structural fairness decoupling and global distribution alignment: decoupling channels sensitive to demographic groups at the model architectural level, and subsequently reducing the distance between the overall sample distribution and the distributions corresponding to each demographic group at the feature level. Experimental results demonstrate that, compared with other methods, our framework improves both inter-group and intra-group fairness while maintaining overall detection accuracy across domains.


翻译:公平性是深度伪造检测模型可信部署的核心要素,尤其在数字身份安全领域。检测模型对不同人口统计群体(如性别、种族)的偏见可能导致系统性误判,加剧数字鸿沟与社会不公。然而,当前基于公平性增强的检测器常以牺牲检测精度为代价提升公平性。为应对这一挑战,我们提出一种双机制协同优化框架。该方法创新性地融合了结构公平性解耦与全局分布对齐:在模型架构层面解耦对人口统计群体敏感的通道,继而在特征层面缩小整体样本分布与各群体对应分布间的距离。实验结果表明,相较于其他方法,本框架在保持跨领域整体检测精度的同时,显著提升了组间与组内公平性。

0
下载
关闭预览

相关内容

【AAAI2023】MHCCL:多变量时间序列的掩蔽层次聚类对比学习
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
48+阅读 · 2020年12月26日
Distributional Soft Actor-Critic (DSAC)强化学习算法的设计与验证
深度强化学习实验室
19+阅读 · 2020年8月11日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员