Recent advances confirm that large language models (LLMs) can achieve state-of-the-art performance across various tasks. However, due to the resource-intensive nature of training LLMs from scratch, it is urgent and crucial to protect the intellectual property of LLMs against infringement. This has motivated the authors in this paper to propose a novel black-box fingerprinting technique for LLMs. We firstly demonstrate that the outputs of LLMs span a unique vector space associated with each model. We model the problem of fingerprint authentication as the task of evaluating the similarity between the space of the victim model and the space of the suspect model. To tackle with this problem, we introduce two solutions: the first determines whether suspect outputs lie within the victim's subspace, enabling fast infringement detection; the second reconstructs a joint subspace to detect models modified via parameter-efficient fine-tuning (PEFT). Experiments indicate that the proposed method achieves superior performance in fingerprint verification and robustness against the PEFT attacks. This work reveals inherent characteristics of LLMs and provides a promising solution for protecting LLMs, ensuring efficiency, generality and practicality.


翻译:近期研究证实,大型语言模型(LLMs)能够在多种任务中达到最先进的性能。然而,由于从头训练LLMs需要大量资源,保护LLMs的知识产权免受侵权变得尤为紧迫和关键。为此,本文作者提出了一种新颖的LLMs黑盒指纹识别技术。我们首先证明,LLMs的输出会形成一个与每个模型相关联的独特向量空间。我们将指纹认证问题建模为评估受害模型空间与嫌疑模型空间之间相似度的任务。针对此问题,我们提出了两种解决方案:第一种方法判断嫌疑输出是否位于受害模型的子空间内,从而实现快速侵权检测;第二种方法通过重构联合子空间来检测经过参数高效微调(PEFT)修改的模型。实验表明,所提方法在指纹验证方面表现出优越性能,并对PEFT攻击具有鲁棒性。本研究揭示了LLMs的内在特性,为保护LLMs提供了一种高效、通用且实用的解决方案。

0
下载
关闭预览

相关内容

指纹识别即指通过比较不同指纹的细节特征点来进行鉴别 。指纹识别技术涉及图像处理、模式识别、计算机视觉、数学形态学、小波分析等众多学科。由于每个人的指纹不同,就是同一人的十指之间,指纹也有明显区别,因此指纹可用于身份鉴定。由于每次捺印的方位不完全一样,着力点不同会带来不同程度的变形,又存在大量模糊指纹,如何正确提取特征和实现正确匹配,是指纹识别技术的关键。
图增强生成(GraphRAG)
专知会员服务
33+阅读 · 1月4日
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月16日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员