成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
0
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
Quantitative Bounds for Length Generalization in Transformers
Arxiv
0+阅读 · 10月30日
A Cloud-Based Spatio-Temporal GNN-Transformer Hybrid Model for Traffic Flow Forecasting with External Feature Integration
Arxiv
0+阅读 · 10月30日
Learning Pseudorandom Numbers with Transformers: Permuted Congruential Generators, Curricula, and Interpretability
Arxiv
0+阅读 · 10月30日
Quantum Transformer: Accelerating model inference via quantum linear algebra
Arxiv
0+阅读 · 10月29日
Differential Mamba
Arxiv
0+阅读 · 10月29日
Does Object Binding Naturally Emerge in Large Pretrained Vision Transformers?
Arxiv
0+阅读 · 10月28日
Quantum Temporal Fusion Transformer
Arxiv
0+阅读 · 10月24日
Born a Transformer -- Always a Transformer? On the Effect of Pretraining on Architectural Abilities
Arxiv
0+阅读 · 10月23日
Elastic ViTs from Pretrained Models without Retraining
Arxiv
0+阅读 · 10月20日
OmniMotion: Multimodal Motion Generation with Continuous Masked Autoregression
Arxiv
0+阅读 · 10月16日
Zero-Shot Wildlife Sorting Using Vision Transformers: Evaluating Clustering and Continuous Similarity Ordering
Arxiv
0+阅读 · 10月16日
Isolated Channel Vision Transformers: From Single-Channel Pretraining to Multi-Channel Finetuning
Arxiv
0+阅读 · 10月13日
Scattering Transformer: A Training-Free Transformer Architecture for Heart Murmur Detection
Arxiv
0+阅读 · 10月7日
HydroFusion-LMF: Semi-Supervised Multi-Network Fusion with Large-Model Adaptation for Long-Term Daily Runoff Forecasting
Arxiv
0+阅读 · 10月4日
Octic Vision Transformers: Quicker ViTs Through Equivariance
Arxiv
0+阅读 · 9月30日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top