面的多了,自然就有了offer

2020 年 4 月 30 日 AINLP

作者 | tumeflate
整理 | NewBeeNLP



面试锦囊之面经分享系列,持续更新中 

NewBeeNLP后台回复"面试"加入讨论组交流吧 

写在前面

本人北邮渣硕一枚,暑期实习投递方向为nlp和机器学习,实验室研究方向不是很match,主要是自学。下面是一些算法面经总结(PART I )

360

一面(1h)

过程就是我不停的给自己挖坑,面试官不停的指坑,然后我不停的填坑

  • 自我介绍
  • 讲下attention在seq2seq中的用法,transformer中self-attention
  • 介绍RNN、LSTM、GRU并比较
  • 多分类的评价指标
  • 二分类的评价指标
  • 解决样本不平衡的方法
  • 介绍一下有哪些集成算法
  • 讲一下偏差、方差、噪声
  • 介绍BN
  • 比较随机梯度下降、批量梯度下降、小批量梯度下降
  • 手写LR的目标函数

二面(<30min)

  • 自我介绍
  • 介绍比赛
  • 知道机器学习中哪些分类模型,讲下它们的区别
  • 聊人生聊理想......

hr面(<30min)

  • 自我介绍
  • 评价自己优缺点、兴趣爱好、平时怎么学习算法、未来规划等等

腾讯PCG

一面(30min,电话面)

  • 自我介绍
  • 3个比赛面试官都问了一下,主要是询问尝试了哪些模型,哪些改进提升较大
  • 讲下bert
  • 维特比算法,刚准备讲,面试官说告诉我时间复杂度就行

二面(快两个小时,牛客视频面)

  • 自我介绍
  • 讲下bert,讲着讲着面试官打断了我,说你帮我估算一下一层bert大概有多少参数量
  • bert里add&norm是什么以及作用
  • 接上一问,自己讲了下normalization
  • 了不了解bert的扩展模型,roberta,albert
  • bert源码里mask部分在哪个模块(没太听懂,现在回想大概是指BertForMaskedLM?)
  • 用tensorflow还是pytorch,说几个你印象比较深刻的函数API
  • 手撕代码,面试官原创,第一个题是按行读入一个文件A,将内容倒序输入到文件B,第二个题是输入一个字符串,输出所有可能的混淆字符串,写完之后面试官直接去跑了看结果

58同城

58同城的AI lab,问的东西范围很广,收获很大

一面(1h)

  • python中list和tuple的区别
  • python中__call__函数什么作用
  • python中dict怎么按照key排序
  • python中list里字符串怎么拼接在一起
  • pytorch怎么搭模型
  • train和eval有什么不同
  • 估计一下bert的参数量
  • roberta和bert在预训练时的不同
  • bert如何mask
  • BN和LN的不同
  • 防止过拟合的方法
  • 早停具体怎么做
  • skip-gram和CBOW有什么不同,哪个性能更好
  • 交叉熵损失函数公式
  • LR和SVM哪个对异常点比较敏感
  • 口述算法题:最长公共前缀、寻找旋转排序数组中的最小值

二面(25min)

  • python中函数形参*和**是什么意思
  • python中list和tuple的区别
  • 口述算法题:10亿int型整数,找出不重复的数字,内存限定2G
  • LSTM中输入、隐藏层、输出的维度都一样吗
  • LSTM中步长改变,参数改变吗
  • 估计一层LSTM的参数量
  • textcnn和lstm相比有什么不同
  • 如何利用朴素贝叶斯进行文本分类

快手

一面(1h)

  • 自我介绍
  • 询问比赛,调参,赛后还有别的什么想法吗
  • 介绍roberta,为什么选用wwm
  • 介绍几个除了bert之外的模型
  • adamW
  • BN的原理、作用以及训练测试时的不同
  • dropout的原理、作用以及训练测试时的不同
  • L2正则化
  • 口述SVM整个过程
  • 手撕代码,lc542改编

一面小哥超级好,表白~

二面(25min)

  • 自我介绍
  • 询问比赛,问的比较多
  • 手撕代码,二叉搜索树求第2小

hr面(电话)

拿到口头offer啦

- END -


推荐阅读

AINLP年度阅读收藏清单

百度PaddleHub&nbsp;NLP模型全面升级,推理性能提升50%以上

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

From Word Embeddings To Document Distances 阅读笔记

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

可解释性论文阅读笔记1-Tree Regularization

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


登录查看更多
0

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
198+阅读 · 2020年6月29日
【ICML2020】对比多视角表示学习
专知会员服务
53+阅读 · 2020年6月28日
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
80+阅读 · 2020年6月11日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
58+阅读 · 2020年1月3日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
24+阅读 · 2019年11月4日
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
偷偷潜入大佬的技术交流群,冒死曝光三千字硬核聊天记录
今日头条广告算法面经!
算法与数据结构
25+阅读 · 2019年5月29日
备战AI求职季 | 100道机器学习面试题(下)
七月在线实验室
9+阅读 · 2019年3月22日
备战AI求职季 | 100道机器学习面试题(上)
七月在线实验室
9+阅读 · 2019年3月16日
45K!刚面完 AI 岗,这几点分享给你!
AI100
17+阅读 · 2018年12月18日
【干货合集】通俗理解kaggle比赛大杀器xgboost
七月在线实验室
3+阅读 · 2018年8月6日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Logic Rules Powered Knowledge Graph Embedding
Arxiv
7+阅读 · 2019年3月9日
Arxiv
4+阅读 · 2018年9月6日
VIP会员
相关资讯
【面经】字节AI Lab-NLP算法热乎面经
深度学习自然语言处理
14+阅读 · 2020年3月29日
偷偷潜入大佬的技术交流群,冒死曝光三千字硬核聊天记录
今日头条广告算法面经!
算法与数据结构
25+阅读 · 2019年5月29日
备战AI求职季 | 100道机器学习面试题(下)
七月在线实验室
9+阅读 · 2019年3月22日
备战AI求职季 | 100道机器学习面试题(上)
七月在线实验室
9+阅读 · 2019年3月16日
45K!刚面完 AI 岗,这几点分享给你!
AI100
17+阅读 · 2018年12月18日
【干货合集】通俗理解kaggle比赛大杀器xgboost
七月在线实验室
3+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员