![]()
![]()
面试锦囊之面经分享系列,持续更新中 ![]()
NewBeeNLP后台回复"面试"加入讨论组交流吧 ![]()
写在前面
本人北邮渣硕一枚,暑期实习投递方向为nlp和机器学习,实验室研究方向不是很match,主要是自学。下面是一些算法面经总结(PART I )
360
一面(1h)
过程就是我不停的给自己挖坑,面试官不停的指坑,然后我不停的填坑
-
-
讲下attention在seq2seq中的用法,transformer中self-attention
-
-
-
-
-
-
-
-
-
二面(<30min)
hr面(<30min)
-
-
评价自己优缺点、兴趣爱好、平时怎么学习算法、未来规划等等
腾讯PCG
一面(30min,电话面)
-
-
3个比赛面试官都问了一下,主要是询问尝试了哪些模型,哪些改进提升较大
-
-
维特比算法,刚准备讲,面试官说告诉我时间复杂度就行
二面(快两个小时,牛客视频面)
-
-
讲下bert,讲着讲着面试官打断了我,说你帮我估算一下一层bert大概有多少参数量
-
-
-
了不了解bert的扩展模型,roberta,albert
-
bert源码里mask部分在哪个模块(没太听懂,现在回想大概是指BertForMaskedLM?)
-
用tensorflow还是pytorch,说几个你印象比较深刻的函数API
-
手撕代码,面试官原创,第一个题是按行读入一个文件A,将内容倒序输入到文件B,第二个题是输入一个字符串,输出所有可能的混淆字符串,写完之后面试官直接去跑了看结果
58同城
58同城的AI lab,问的东西范围很广,收获很大
一面(1h)
-
-
-
-
-
-
-
-
-
-
-
-
-
skip-gram和CBOW有什么不同,哪个性能更好
-
-
-
口述算法题:最长公共前缀、寻找旋转排序数组中的最小值
二面(25min)
-
-
-
口述算法题:10亿int型整数,找出不重复的数字,内存限定2G
-
-
-
-
-
快手
一面(1h)
一面小哥超级好,表白~
二面(25min)
hr面(电话)
拿到口头offer啦
- END -
![]()
推荐阅读
AINLP年度阅读收藏清单
百度PaddleHub NLP模型全面升级,推理性能提升50%以上
斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用
数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?
自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了
From Word Embeddings To Document Distances 阅读笔记
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
这门斯坦福大学自然语言处理经典入门课,我放到B站了
可解释性论文阅读笔记1-Tree Regularization
征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
![]()