Contextual word representations generated by language models (LMs) learn spurious associations present in the training corpora. Recent findings reveal that adversaries can exploit these associations to reverse-engineer the private attributes of entities mentioned within the corpora. These findings have led to efforts towards minimizing the privacy risks of language models. However, existing approaches lack interpretability, compromise on data utility and fail to provide privacy guarantees. Thus, the goal of my doctoral research is to develop interpretable approaches towards privacy preservation of text representations that retain data utility while guaranteeing privacy. To this end, I aim to study and develop methods to incorporate steganographic modifications within the vector geometry to obfuscate underlying spurious associations and preserve the distributional semantic properties learnt during training.


翻译:最近的调查结果显示,对手可以利用这些协会逆向设计公司内提及的实体的私人属性,从而尽量减少语言模型的隐私风险,但是,现有的方法缺乏可解释性,数据效用缺乏妥协,而且没有提供隐私保障,因此,我的博士研究的目的是为保留数据效用同时保障隐私的文本标识的隐私保护制定可解释性方法。为此,我打算研究并制订方法,在矢量几何中纳入血清修改,以混淆潜在的虚假协会,并保护培训期间学会的分布式语义特性。

0
下载
关闭预览

相关内容

【AAAI2022】上下文感知的词语替换与文本溯源
专知会员服务
18+阅读 · 2022年1月23日
专知会员服务
32+阅读 · 2021年6月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
3+阅读 · 2017年12月23日
VIP会员
相关VIP内容
【AAAI2022】上下文感知的词语替换与文本溯源
专知会员服务
18+阅读 · 2022年1月23日
专知会员服务
32+阅读 · 2021年6月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员