腾讯算法面经秘籍(上)

《AI未来星球》陪伴成长的人工智能社群,价值过万的各种内部资源及活动,限时特惠中,点击查看。

求职跳槽福利:为了便于大家求职、跳槽的准备,大白将45家大厂的面经,按照知识框架,整理成700多页的《人工智能算法岗江湖武林秘籍》,限时开放下载,点击查看下载。


面经整理历程:经过一年多的努力,大白整理了超过3500篇,各类大厂的算法面经资料。

并将涉及到的知识点,按照知识框架,分类汇总,每个公司整理成一篇,比如本文的腾讯面经

大家对照面经,可以了解心仪的公司,会根据你的简历,问哪些知识点?便于大家对掌握的知识,进行回顾梳理。

希望为大家在求职或者跳槽的道路上,提供一些帮助,为大家取得心仪的offer助力。

面经整理心得:大白也将整理所有面经的心得,写成了一篇文章,点击查看心得

其他大厂面经:国内其他大厂的面经汇总,点击查看目录

腾讯面经整理:江大白

1 腾讯面经汇总资料

1.1 面经汇总参考资料

① 参考资料:

(1)牛客网:腾讯面经-212篇,网页链接

(2)知乎面经:点击进入查看

(3)面试圈:点击进入查看

面经框架及参考答案:

(1)面经知识框架:点击进入查看

(2)面经参考答案:点击进入查看

1.2 面经涉及招聘岗位

(1)实习岗位类

【微信nlp应用研究实习】、【光子技术中心实习生】、【腾讯游戏算法实习】、【PCG推荐岗实习】、【腾讯AI暑假实习岗】、【腾讯新闻NLP实习】、【腾讯音乐媒体研发中心算法实习】、【腾讯机器学习暑假实习】、【视频推荐算法实习】、【腾讯应用宝推荐算法暑假实习】

(2)全职岗位类

【omg事业群计算机视觉工程师】、【腾讯优图算法工程师】、【SNG云部门算法工程师】、【腾讯社交广告部算法工程师】、【IEG安全部门算法工程】、【IEG(数据挖掘部)机器学习】、【腾讯游戏数据挖掘实现】、【微信事业部机器学习】、【PCG机器学习】、【TEG事业群机器学习岗】、【腾讯量子研究室】、【IEG事业群光子工作室】、【腾讯短视频推荐算法工程师】、【wxg推荐算法工程师】、【腾讯AI Lab】、【腾讯北京应用研究路径规划和车辆流量监测】、【PCG看点用户增长算法工程师】、【TEG应用研究岗】、【PCG应用研究岗】、【PCG微视业务组】、【微信搜一搜算法工程师】、【PCG腾讯视频搜索】、【腾讯云NLP算法工程师】、【CSIG腾讯云算法工程师】、【腾讯动漫算法工程师】、【PCG创新推荐算法工程师】、【机器学习技术研究算法工程师】、【WXG开发平台基础部机器学习工程师】、【CSIG云与智慧产业事业群CV算法工程师】、【后台策略安全岗机器学习工程师】、【QQ音乐算法工程师】

1.3 面试流程时间安排

PS以上流程为大白总结归纳所得,以供参考。

其他注意点:

● 实习岗是两面+HR,正式岗是四面+HR

● 第一面,也有人说是简历面,主要问基础

1.4 腾讯面试心得汇总

★ 关于项目的问题问的都很一针见血,面试官真的会很关注你简历上面写的东西,你写上去的一定要特别熟悉才行。

★ 感觉腾讯面试官更侧重应用场景,然后根据项目中的方法进行拓展问。

★ 面试的问题都是从简历内容出发延伸的,注意细节要完全弄清楚,面试官会问到底的。

★ 简单来说的话,可能对于有论文和比较好比赛成绩的同学,有专精方向的话,基础问的不会那么多,比如什么lr推导,svm推导,bp推导。

★ 腾讯的笔试题还是相对容易的,好好复习、认真做题应该问题不大。尤其最后的两三道编程题,其实腾讯出的都是常规题,只要数据结构和算法基础扎实,AC两三道应该没问题。

★ 语言组织能力也很重要,逻辑能力好点,做过的事给面试官讲清楚。就算很水的项目,多介绍下原理,多说说自己的理解,多讲讲自己的改进,还是有很多谈资的。

★ 腾讯机器学习算法岗的面试算是非常正规的了,整套面试流程下来几乎能把你几年所学的东西都问到。所以,不要存在侥幸心理,踏踏实实的刷题,复习好常规机器学习算法,尤其是算法的原理和应用场景。

★ 项目和比赛经历非常的重要,往往面试官都是根据项目里用到的方法拓展提问,对项目的优化和改进也问的比较多。还有就是能内推的一定去找学长学姐或是其它资源去内推。

★ 面试过程中如果实在写不出来代码的话,就给面试官讲思路,尽量把自己的想法和思考过程表达出来。

★ 关于简历的技术经历的考察,面试官会问:你觉得简历里面的哪个项目做的最好?然后追问这个项目当中的技术细节,cnn,loss function,参考指标之类的。所以,建议大家把自己做过的项目好好的总结复盘一下,可以尝试着自己提问自己。

★ 找实习的话,由于校招同学没有工作经验,所以项目和实习是展示自身能力的最好亮点(一堆CCF-A的大佬请忽略并接受我的膝盖)。面试官可以从介绍中了解你的工程能力、抗压能力、沟通能力、思维方式等等,所以对于简历上的内容要滚瓜烂熟。

切忌在简历上洋洋洒洒地写"熟悉Xgboost、SVM、Bayes、HMM、CRF、KNN、LR、CNN、Attention等算法"。是听过名字就算熟悉?还是啃过源码?

而对于没有项目/实习/比赛经历的同学,这一部分时间只能由考察基础算法来弥补了,这样一来随机性、难度都提升了不少;所以平时尽可能多积累这方面的经验,让简历充实起来。

★ 腾讯一面难度中规中矩,量比较多但基本都在考察基础。

2 腾讯面经涉及基础知识点

2.1 图像处理基础

2.1.1 讲解相关原理

● Canny、Scharr、Sobel 边缘检测

● HOG 特征

● Hough 变换

● 图像匹配算法了解哪些?

● SIFT 特征了解吗?是怎么生成的?SIFT特征是怎么进行匹配的?(OpenCV中常用的是暴力匹配函数,即对两组SIFT特征向量,将一组中的每个向量依次与另一组的所有向量进行欧式距离度量,选择距离最近的作为匹配点)

● 如何根据局部特征去检索更大的图片?

● Opencv 如何读取数据流中的图片?如何生成图片?

● Opencv中高斯滤波的函数是什么?

2.2 深度学习:CNN卷积神经网络方面

2.2.1 讲解相关原理

2.2.1.1 卷积方面

● 谈谈1*1卷积? 1*1卷积有什么作用?

● 卷积原理,工程实现

● 为什么深层神经网络里的卷积核都改成了3x3,而不是5x5?

● 感受野的原理,CNN的局限性?

● 为什么 Dropout 可以防止过拟合?随机失效会不会导致单次 Forward 的神经网络欠拟合?

● Dropout 作用与原理 ?dropout是怎么调整参数?

● 神经网络利用dropout和多项式回归利用正则项减轻过拟合的本质是什么?(为什么就能减轻过拟合了)

● 介绍Dropout后,问缺点是什么?或者说,低层还是高层使用,为什么?

2.2.1.2 池化方面

● Pooling种类,区别以及适用场景?

● Maxpool和Average Pool哪个好?

● pooling 层前向计算、反向传播?

2.2.1.3 网络结构方面

● 写了vgg-16网络结构,问的还比较详细,又问我还用过其他什么网络没有?

● 图像分类ResNet 和 DenseNet 原理?DenseNet 相比 ResNet 提升的效果怎么样?DenseNet为什么比ResNet有更强的表达能力?

● 了解胶囊网络么?

● SENet的Squeeze-Excitation结构是怎么实现的?

● mobileNet、shuffleNet的结构知道吗?

● Resnet,讲一下结构,优点,为啥有效?为什么效果不会随着深度变差?

● Mobilnetv2和v1的区别?

● 介绍一下图表示学习GCN以及GCN的缺点以及针对缺点前沿的扩展模型?

● VGG,ResNet这种模型的优势的改进点?

2.2.1.4 其他方面

● 怎么解决图像细节不足问题的?(增强特征提取骨干网络的表达能力)

● BN层怎么实现?有什么具体的好处?有哪些缺陷,怎么改进,了解其他的归一化算法吗?

● Batch Normalization 的原理及作用 (问的最多,感觉被问了至少3次)

● 介绍BN后:问BN有什么缺陷?在模型中用过吗?回答效果不太好。分析原因?

● 了解Layer normalization吗?(这个应该才是想问的问题...感觉上面的BN缺点都是铺垫)

● BN每层的参数一样吗?

● 实际场景下做softmax容易出现一些问题,怎么解决(面试的时候没明白什么意思,面试结束后询问,他是说实际场景做softmax很容易出现下溢问题,这个可以用每个维度减去一个固定值就可以了)

● 普通的DNN网络如何设计的,隐层规模、隐藏单元,我说根据样本大小和输入的特征来设计。

● Batch size如何选择?

● 梯度消失和梯度爆炸的原因和解决方法?

2.2.2 数学计算

● 输入是三通道的WH的图像,3×3的卷积核,步长是1,有padding,输出是512通道的feature maps,问输出的feature map大小和总共的卷积参数?

● 卷积输出大小的公式写一下?

● 输入25*25*10的feature map, 用3*3卷积, 输出成25*25*30, 问参数量?

2.2.3 公式推导

● Res和Densenet中的融合有什么区别?用公式解释。

● DNN反向传播公式推导?

● CNN反向传播公式推导?

2.2.4 手写算法代码

● 定义函数实现一下softmax(不要用numpy) ,数值太大溢出怎么办?

2.2.5 激活函数类

● DNN中如果把中间层的激活函数去掉会怎样?去掉激活函数的DNN与逻辑回归有什么区别?

2.3 深度学习:RNN递归神经网络方面

2.3.1 讲解相关原理

● RNN的梯度爆炸怎么解决?

● LSTM对于RNN的改进地方在哪?解决了RNN的什么问题?(梯度弥散)

● LSTM的结构,里面的遗忘门是一个数值还是向量?维度是多少?

● LSTM为什么可以解决梯度弥散的问题?

● 为什么用Relational-RNN代替LSTM?

● LSTM对于one-to-one,many-to-many等这些场景如何选择模型?

● LSTM里面有哪些门,为什么用这些门?

● LSTM和GRU的区别,GRU具体简化了哪个门?

● LSTM与RNN的区别?

● LSTM你用的优化方法是哪个,我说是Adam,他问还有哪些,我说SGD等等,他问GD和SGD的区别?

● LSTM里面为什么有些激活函数用sigmoid,有些用tanh?

● LSTM门控机制是怎样的?LTSM主要解决了RNN什么问题,为什么能解决?

2.3.2 手绘网络原理

● LSTM能解决rnn什么问题,并通过数学公式推导?

● 手写BiLSTM的公式?

2.4 深度学习CNN&RNN通用的问题

2.4.1 基础知识点

● 了解Attention机制吗?Attention的几种实现方式?

● CNN、LSTM区别、文本里怎么应用?

● 讲一下对CNN和RNN的认识?

● 解释一下模型训练里面的偏差和方差对于训练的意义?

● CNN,RNN,Attention 在文本上怎么用?

● 实现一下Attention,不准使用任何库函数?

● 一个二分类任务,假设只有一个维度的特征,取值范围是0~正无穷,如何实现二分类?

2.4.2 模型评价

● 多分类有哪些评判指标,micro-f1和macro-f1有哪些不同,做多分类的时候precision、recall和f1往往是相等的,为什么?

● 分类模型评价标准有哪些?追问,AUC可以用于多分类模型么?

● ROC怎么画 ?

● 解释一下AUC(ROC的面积),从概率上面的解释一下?

● AUC为什么适合在二分类任务下,为什么能解决正负样本不均衡?

2.5 传统机器学习方面

2.5.1 讲解相关原理

2.5.1.1 数据准备

● 常用采样的方法?

● MCMC采样?

● 样本不平衡时怎么处理?过采样和欠采样等。

2.5.1.2 特征工程

① 特征降维

● PCA的原理说一下?

● 自己对PCA的理解(最小方差、最大误差、信噪比最大、基于特征值分解、PCA和SVD都是基于特征值分解,然后继续说SVD可以用于做推荐)。

● SVD怎么实现降维?

● KSVD和SVD的区别;因为楼主的项目里有用到KSVD,稀疏编码的一种字典学习算法;

● 特征维度很高时你是怎样做的操作?

● 特征值的大小有什么含义,为什么PCA中分解协方差矩阵要按特征值排序?

② 特征选择

● 特征工程的作用?

● 特征选择方法都有哪些?

● lasso和ridge的区别以及如何做特征选择?

2.5.1.3 有监督学习-分类和回归方面

① 分类回归树

● 知道哪些分类算法?(回答了决策树、RF、SVM、贝叶斯、神经网络),讲讲RF和XGboost区别

A.基于bagging:随机森林

● 为什么使用随机森林?

● 随机森林的基本原理?

● 为什么随机森林效果比较好?

● 随机森林怎么进行特征选择?

● 随机森林和XGboost有什么区别?

● 为什么随机森林和SVM的效果比其他算法好?

● 随机森林怎么得到特征复杂度(简历中项目)

B.基于boosting:Adaboost、GDBT、XGBoost

● XGB,RF,LR优缺点场景?逢面必问。

● 看到你用过LightGBM,你可以说一下GBDT、XGBoost、LightGBM的特点?

● XGBoost、LightGBM哪种快一点,或者结果好一点?lightGBM说一下改进点?

● GBDT和XGBOOST的区别,gain函数和gbdt的不同?

● XGBoost如何给出特征重要性(我说根据推导的目标函数,分裂前后相减得到增益值,对这个增益值进行排序,从而给出特征重要性,面试官说可能不是这样子,让自己查一下)

● GBDT怎么分裂的?XGB原理?说说XGB相比GDBT的优势?

● RBF和XGB同等效果下,哪个更深(RBF更深)

● 说一下XGBoost的列采样?

● GBDT的梯度是什么,为什么要算这个,怎么算?

● 用GBDT的时候,主要调节的参数?如何判断判断过拟合?

● RF和GBDT的不同,GBDT和Xgboost的不同,Xgboost为什么更快,做了哪些优化?

② 逻辑回归LR

● 逻辑回归和线性回归的区别?

● LR和XGB关于特征处理有什么区别吗?

● LR和树模型区别?LR模型离散化的好处?

● LR模型能够用来回归么,不设阈值可以吗?

● LR模型为什么要用交叉熵而不是MSE?刚刚说了MSE那么多缺点,那为什么回归还要用MSE。

● 以 LR 为例,解释一下为什么权重接近 0 的时候能防止过拟合?

● LR和SVM的区别,应用起来有什么不同?当聊到损失函数,问分别是什么?hinge损失函数里面的z是什么?

● LR和SVM对于离群点的敏感性?LR有什么特点,适合做哪些?

● LR强行引入非线性和FM的差别?

● LR可以处理非线性问题吗?

● LR怎么缓解过拟合?(L1,L2)L1和L2之后的解有什么不同?

③ SVM(支持向量机)

● 问SVM的原理和优点?

● SVM的物理意义是什么?

● SVM最后训练好的网络是什么结构?

● SVM的硬间隔,软间隔表达式?

● SVM使用对偶计算的目的是什么,如何推出来的,手写推导?

● SVM的核函数使用过哪些?SVM为什么要加核函数?

● SVM和GBDT的比较?

● SVM应用于哪个领域?

● SVM可以处理非线性问题吗?

● SVM的基本假设,(存在一个超平面可以分开正负样本)如果分不开怎么办?(软间隔,核函数)

● 有哪些常用的核函数?

④ 朴素贝叶斯(Naive Bayes)

● 朴素贝叶斯与贝叶斯有什么区别?

● 朴素贝叶斯适用哪些场景?

● 极大似然估计是什么意思?

● 最大似然估计和贝叶斯估计的区别?

⑤ 决策树

● 决策树都讲讲,ID3,C4.5,CART树是什么?各有什么优势?

● 决策树有哪些选择最优划分节点的方法?决策树节点确定?有了信息增益为什么还提出了增益比?

● 决策树里面的分类树怎么选择划分属性,给了两个属性分布情况,问选择哪个?

● 决策树做回归时候划分点怎么选择? 决策树启发函数?

● 讲一下信息增益,信息增益比,Gini系数的关系?

● 有真实的场景吗?为什么树的深度会影响过拟合?

● 决策树的分裂方式是什么,根据什么变量来决定分裂变量?

● 决策树怎么选择分裂点?

⑥ 其他

● 分类与回归的区别(自己说区别是目标变量是连续还是回归,面试官提出质疑,后面和面试官讨论了一下,今天搜答案,有个答案说最本质的区别是度量空间的不同)

浅层: 两者的的预测目标变量类型不同,回归问题是连续变量,分类问题连续变量。

中层:回归问题是定量问题,分类问题是定性问题。

高层: 回归与分类的根本区别在于输出空间是否为一个度量空间。

2.5.1.4 无监督学习-聚类方面

● 聚类的算法有哪些?评价方法?优化算法?

● 聚类了解那些算法?只说了K-Means,介绍了K-means的步骤?

● 聚类kmeans的原理、缺陷以及改进方式,初始点的选择?

● Kmeans与kNN什么区别?

2.5.1.5 模型评价

● 模型评价标准,RMSE\ROC\AUC等等

● 二分类混淆矩阵及相关指标你能想起来哪些,都介绍下?

● 怎么衡量两个分类的相似度,说下混淆矩阵和softmax输出的两个概率之差这两种方法确定分类相似度的异同?

● 机器学习分类指标有哪些?AUC如何计算?

2.5.2 手推算法及代码

2.5.2.1 手推公式

● 推一下FM的公式,然后推一下FM的梯度更新方式

● 说下LR模型的推导,指定LR模型之后你怎么判断这个问题是回归还是分类?

● LR写一下损失函数

● 介绍核岭回归算法,并推导?

2.5.2.2 手写代码

● 一个M的空间,对其采样(采样有误差),在2范数的情况下,映射到N维空间,输出N维正交基?

2.6 深度学习&机器学习面经通用知识点

2.6.1 损失函数方面

● 常用的损失函数和适用场景?物理意义?

● 从理论角度讲解一下,基于不确定性平衡多任务各个loss的原理以及合理性

● Logistic Regression损失函数

● 逻辑回归中损失函数的意义?

● 为何分类问题用交叉熵而不用平方损失?

● 二分类交叉熵和多分类交叉熵的公式?

● 手写交叉熵公式、核函数解决什么问题?

● 交叉熵和最大似然损失函数的区别?

2.6.2 激活函数方面

● 激活函数的作用是什么?我说最开始的感知机那儿是可以让神经元的输出是一个0~1之间的数,这样可以判别属于哪一类的概率大,他问我还有没有,我想了一会儿说不知道了(面试的最后我问了他,他说是让神经元非线性化,这个非常重要)

● 常用什么激活函数,有什么作用?

● Leaky-ReLU和ReLU的区别?

● 激活函数为什么会梯度消失、Relu有什么改进?

2.6.3 网络优化梯度下降方面

● 说一下常见的优化器?优化方法?Adam和sgd?

● SGD优化方法,批数量的影响?

● minibach SGD的minibatch怎么选择,如果给1000万的数据,minibach应该选多少?

2.6.4 正则化方面

● 正则化有哪些方法?作用?原理?

● 从原理上解释L1, L2正则(如L1正则为什么能够起到特征选择的作用)

● L1和L2正则化区别,为什么防止过拟合?

● L1的形状,无穷范数的形状?

2.6.5 压缩&剪枝&量化&加速

● 深度学习模型压缩有哪些方法介绍一下?

● 量化和剪枝讲一下?不了解量化,主要说了剪枝,主要是随机取消某些权重,如果模型跑的结果和原完整模型跑的结果在我们容忍(阈值)范围内,剪掉这些参数,模型压缩会降低原模型精度。

2.6.6 过拟合&欠拟合方面

● 过拟合的本质?

● 防止过拟合的方法,具体怎么实现的?正则项为什么能减缓过拟合?

● Loss不降怎么办?vali loss不升(过拟合)怎么办?

● 少样本问题怎么办?从模型的角度:添加正则项防止过拟合、提前停止训练等。

● 如何解决过拟合,L1和L2正则原理,区别?

2.6.7 其他方面

● 数据类别不平衡问题如何解决?

● 模型训练的停止标准是什么?如何确定模型的状态(指标不再提升)

3 腾讯面经涉及项目知识点

3.1 深度学习-CNN卷积神经网络方面

3.1.1 目标检测方面

3.1.1.1 讲解原理

● 说一下目标检测有哪些网络?挑一个说一下

● SSD 原理讲一下

● 讲一下faster rcnn、yolo、SSD?

● Faster-RCNN结构,与其他RCNN对比?

● FasterRCNN细节,怎么筛选正负anchor?

● softnms原理,比nms好吗?

● 简单介绍Fast RCNN -> Faster RCNN -> mask RCNN (这个真的好高频)、有没有自己搭一个faster rcnn的网络?

● YOLO为什么比其他检测算法快?

● YOLO每一代的不同(问的特别细)

3.1.1.2 手写代码

● 实现简单的NMS(已提供计算IOU的函数)

● IOU的实现写一下?

3.1.2 目标追踪

● 追踪结果与检测结果怎么融合?

● EKF多目标跟踪的原理?

3.1.3 图像分割

● 问了解其他图像领域的任务吗?我说了解图像分割,然后叫介绍一下图像分割领域的常用结构,我说了FCN, U-net, deep lab系列之类的,然后稍微介绍了这些网络的结构,优点之类的

● Mask R-CNN相比于Faster R-CNN有哪些改进?

3.1.4 超分辨

● 视频超分如何应对异常可能,即运动误差大的如何处理?

3.1.5 图像分类

● 介绍分类经典网络;当时我就只想到AlexNet,VggNet,ResNet,着重讲了下Alex和ResNet。

● 分类问题:几万个类怎么做,如果用softmax的话有什么问题,类之间如果很相关又如何做?

3.2 深度学习-RNN递归神经网络方面

3.2.1 自然语言处理NLP

3.2.1.1 讲解原理

① Bert

● BERT的细节、优势?与GPT、ElMo比较

● BERT模型的个人理解,有那些tricks,为什么会好用?

● 讲下bert,讲着讲着面试官打断了我,说你帮我估算一下一层bert大概有多少参数量?

● Bert里add&norm是什么以及作用?

● Bert里面位置向量的作用是什么?有哪些生成方式?

● 了解bert的扩展模型,roberta,albert,XLnet吗?为什么XLnet效果比bert效果好?

● ELMO、BERT、GPT模型彼此之间有什么区别?

● Bert、roberta、xlnet异同点?

● Bert参数如何计算?

● Bert mask策略,作用分别是什么?

② Transformer

● Transform和RNN的优缺点?

● Transformer结构,input_mask如何作用到后面self-attention计算过程。

● 讲下transformer相对于其他RNN的优点,讲下self-attention和attention。聊了下bert的文本分类,然后扩展到场景题,问一个新的短文本,如何正确分到正确的类别里取,不可能去重新训练模型(包括增量训练),也不是用规则这种。

③ HMM隐马尔科夫模型

● 隐马尔科夫了解吗?

● CRF和HMM的区别?

● CRF与HMM,特征函数,有向图无向图,因子分解。

● 命名实体识别模型介绍?评价标准 ROC?

● 命名实体识别模型的参数量?

● 命名实体识别过程做了哪些参数的调整?

④ Word2vec

● word2vec原理讲一下?word2vec的训练过程?

● 从word2vec讲到分层softmax,再到负采样。

● 简单介绍一下word2vec和fasttext?

● word2vec两个模型的损失函数是什么?

● 关于NLP的word2vec,怎么实现对单词的编码?

● w2v怎么用的,为什么不和NN一起训练而是固定住,训练开销很大么,embedding矩阵很大么,会占用很多内存么?

● NN用的框架是什么,画出框架图,为什么选择双向LSTM,序列与时间有关么?如果和序列没有关系,那双向LSTM会不会引入噪声?

● word2vec和ELMO主要有什么不同,为什么elmo效果更好?

⑤ 其他

● 情感分析用什么数据集?

● 你了解network embedding方法吗?deepwalk和node2vec

● 问了gcn、deepwalk之类的graph embedding?

● one-hot编码的原理及意义?

● cbow和skip gram的区别?你觉得用哪个训练的词向量结果好?为什么?

● 序列标注常见的算法有什么?

● 问了一下简历里面关键词提取是怎么实现的?觉得我只是用TFIDF和TextRank没有什么亮点,他们会根据业务需求去设计learning模型。

● tf-idf原理,还知道其他关键词提取技术吗?

● 如何理解双塔模型中cosine similarity的计算?如何理解粗排和精排的不同需求?

● 介绍GPT2如何写诗、写对联?

● GPT2如何围绕一个主题/关键词写诗?

3.3 强化学习

3.3.1 讲解原理

● 介绍一下强化学习的策略梯度?

● 生成对抗网络用在文本中如何梯度估计?

● 判别学习和生成学习分别有哪些?

● Policy Gradient和Q Learning的区别?

● GAN 训练过程一定能收敛吗?

● GAN相关。描述、介绍优缺点、知道哪些variant、WGAN的优点和不足、conditionalGAN的应用场景

● 你用GAN做数据增强?你有对比过GAN和VAE的生成效果吗?

3.4 机器学习方面

3.4.1 推荐系统

● CTR预估的深度模型以及一些扩展从wide&deep 到deepfm到dcn到xdeepfm都解决什么问题?

● 问推荐算法,fm,lr,embedding?

● 谈谈FM与DeepFM?FM和FFM的区别在哪里?

● DIN结构,DIN提出动机以及与之前模型的区别?

● DIN中Attention机制实现

● CTR预估模型的演化过程中的着手点?

● 协同过滤的itemCF,userCF区别适用场景?

● 推荐系统的大概步骤,如何解决冷启动?

● 推荐系统有几个步骤,为什么要召回?

● 深度学习用在推荐里的例子有哪些?能描述一下ncf的基本框架吗?

● 推荐系统里的排序算法有哪些?

● 如果让你给用户推荐页面的排序评分,你会怎么设计这种评分机制?

● 介绍din、dien?

● 两种协调过滤,区别比较,如何解决冷启动?

● 推荐系统如何离开局部最优?

● 基于w2v的ANN怎么做的?

● 推荐系统里面是如何考虑冷门商品?

● 新增一路召回,在排序阶段需要做什么改进?

3.4.2 点击率预估

● 广告点击率预测怎么做?怎么特征选择?

腾讯算法面经秘籍(下):点击查看

本文由 大白智能 作者:凯哲 发表,其版权均为 大白智能 所有,文章内容系作者个人观点,不代表 大白智能 对观点赞同或支持。如需转载,请注明文章来源。

发表评论

This site is protected by wp-copyrightpro.com