面试中,XGBoost、Transformer、BERT问什么最多?都在这里!

2020 年 7 月 17 日 CVer
在当今的人工智能时代,相信大部分人都会关注深度学习技术,但请 千万不要忽视对传统机器学习技术的理解。 实际上,真正去从事AI工作的时候就会发现,对传统机器学习的依赖还是巨大的。如逻辑回归、随机森林、GBDT、XGBoost、SVM等模型仍然在非常多的应用中占有着不可忽视的地位。

《XGBoost》 作为近几年最为火热的技术之一,受到了业界广泛的应用。但相比其他的技术,全面理解XGBoost的技术细节还是有一定的挑战的。


《Attention, Transformer, BERT》,”预训练模型“作为NLP过去10年最为颠覆性的成果,小组学习中将重点讲解Transformer模型和它的核心Self-Attention机制,同时也会对BERT模型做详细的讲解。


《FM、基于知识图谱的推荐方法》,FM作为业界标配的存在,不得不说确实应用广泛,近几年,基于知识图谱的推荐方法越来越流行,小组学习中将重点要学习的是基于图的推荐方法--水波扩散法。


为了帮助大家能够对其有个更深入的理解这些内容,贪心学院特此组织了这次的学习小组计划,深入浅出讲解每个算法模型的每一个技术细节。对于想了解算法底层的朋友们来说,参加这次活动绝对有很大收获! 感兴趣的朋友们可以扫一下下方二维码报名参加,不见不散! 

免费 报名参加 学习小组
请扫描下方二维码
👇👇👇


免费 报名参加 学习小组
请扫描下方二维码
👇👇👇

登录查看更多
1

相关内容

xgboost的全称是eXtreme Gradient Boosting,它是Gradient Boosting Machine的一个C++实现,并能够自动利用CPU的多线程进行并行,同时在算法上加以改进提高了精度。
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
108+阅读 · 2020年8月30日
专知会员服务
45+阅读 · 2020年3月6日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
28+阅读 · 2020年1月16日
【必修】16个机器学习算法推导及项目案例 XGBoost | GBDT ......
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
今日面试题分享:为什么xgboost要用泰勒展开,优势在哪里?
10个项目给你答案,19年NLP为什么这么骚
PaperWeekly
34+阅读 · 2018年12月29日
详细解读谷歌新模型 BERT 为什么嗨翻 AI 圈
人工智能头条
10+阅读 · 2018年10月25日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关VIP内容
相关资讯
【必修】16个机器学习算法推导及项目案例 XGBoost | GBDT ......
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
今日面试题分享:为什么xgboost要用泰勒展开,优势在哪里?
10个项目给你答案,19年NLP为什么这么骚
PaperWeekly
34+阅读 · 2018年12月29日
详细解读谷歌新模型 BERT 为什么嗨翻 AI 圈
人工智能头条
10+阅读 · 2018年10月25日
相关论文
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Top
微信扫码咨询专知VIP会员