成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
数据集蒸馏
关注
0
综合
百科
VIP
热门
动态
论文
精华
CoDA: From Text-to-Image Diffusion Models to Training-Free Dataset Distillation
Arxiv
0+阅读 · 12月3日
Hard Labels In! Rethinking the Role of Hard Labels in Mitigating Local Semantic Drift
Arxiv
0+阅读 · 12月17日
Dataset Distillation for Offline Reinforcement Learning
Arxiv
0+阅读 · 11月3日
DP-GENG : Differentially Private Dataset Distillation Guided by DP-Generated Data
Arxiv
0+阅读 · 11月13日
GeoDM: Geometry-aware Distribution Matching for Dataset Distillation
Arxiv
0+阅读 · 12月9日
GeoDM: Geometry-aware Distribution Matching for Dataset Distillation
Arxiv
0+阅读 · 12月10日
Technical Report on Text Dataset Distillation
Arxiv
0+阅读 · 12月3日
Towards Consistent and Efficient Dataset Distillation via Diffusion-Driven Selection
Arxiv
0+阅读 · 11月13日
Utility Boundary of Dataset Distillation: Scaling and Configuration-Coverage Laws
Arxiv
0+阅读 · 12月10日
Utility Boundary of Dataset Distillation: Scaling and Configuration-Coverage Laws
Arxiv
0+阅读 · 12月5日
Learning from Dense Events: Towards Fast Spiking Neural Networks Training via Event Dataset Distillation
Arxiv
0+阅读 · 11月20日
Knowledge Hierarchy Guided Biological-Medical Dataset Distillation for Domain LLM Training
Arxiv
0+阅读 · 12月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top