ai算法题1
深度学习500问
计算机基础知识和编程题1
人工智能,我比较关注数学理论和工程架构
随着深入学习,语言的一般变换:<code>python</code>–><code>c++</code>–><code>c</code>,之后用于运用—><code>java/c#</code>
在人工智能,一般到c++,就是研究算法底层了,到了c就是研究关于ai的操作系统的底层了
cv视觉方向,目前能有2-3篇顶会文章,在国内大概能拿100-150w
主流:iccv、eccv、cvpr、nips(一档),ijcai、iclr、aaai(二档)
医学领域的主要有:miccai、medical image analysis、ieee transactions on medical imaging、midl、ipmi;
数据挖掘领域:kdd;
自然语言处理:acl、emnlp、naacl-hlt和coling;
推荐学习资料:
神经网络基本原理简明教程
机器学习面试150题
python
机器学习(基础版,明白基本原理,扫扫盲)
统计学习方法,西瓜书(我感觉,emmm,lj)
算法实践-机器学习(打打比赛,kaggle,要注意对树模型的应用,比如xgboost)
深度学习–(先扫盲吧)
pytorch框架(tensorflow框架)
深度学习经典论文
python经典web框架
大数据基础
leetcode算法题
前面扎实了,就可以起飞了(前路漫漫,其修远兮)
推荐:
吴恩达的机器学习和深度学习可以用来扫扫盲,挺好的,大概看看,之后还可以回味回味
最难的是什么?是某个高深的算法吗?不不不!是死皮赖脸的坚持,总认为自己行,认为自己是人工智能方面的天才(实际是辣鸡)
找工作基础:
leetcode(150-450道题)
百面机器学习—防止被问的不会(工业基础问题)
竞赛(某top)
实习(3-6月,某企业)
论文(某期刊)
面试题:
转载于
1. 写出全概率公式&贝叶斯公式
2. 模型训练为什么要引入偏差(bias)和方差(variance)?
优化监督学习=优化模型的泛化误差,模型的泛化误差可分解为偏差、方差与噪声之和
,以回归任务为例,其实更准确的公式为:
符号的定义:一个真实的任务可以理解为 y=f(x)+e,其中 f(x)为规律部分,e 为噪声分
3. crf/朴素贝叶斯/em/最大熵模型/马尔科夫随机场/混合高斯模型
4. 如何解决过拟合问题?
5. one-hot的作用是什么?为什么不直接使用数字作为表示
6. 决策树和随机森林的区别是什么?
7. 朴素贝叶斯为什么“朴素naive”?
8. kmeans初始点除了随机选取之外的方法
9. lr明明是分类模型为什么叫回归
10. 梯度下降如何并行化
11. lr中的l1/l2正则项是啥
12. 简述决策树构建过程
13. 解释gini系数
14. 决策树的优缺点
15. 出现估计概率值为 0 怎么处理
16. 随机森林的生成过程
17. 介绍一下boosting的思想
18. gbdt的中的tree是什么tree?有什么特征
19. xgboost对比gbdt/boosting tree有了哪些方向上的优化
20. 什么叫最优超平面
21. 什么是支持向量
22. svm如何解决多分类问题
23. 核函数的作用是啥
1. 怎么去除dataframe里的缺失值?
2. 特征无量纲化的常见操作方法
3. 如何对类别变量进行独热编码?
4. 如何把“年龄”字段按照我们的阈值分段?
5. 如何根据变量相关性画出热力图?
6. 如何把分布修正为类正态分布?
7. 怎么简单使用pca来划分数据且可视化呢?
8. 怎么简单使用lda来划分数据且可视化呢?
1. 你觉得batch-normalization过程是什么样的
2. 激活函数有什么用?常见的激活函数的区别是什么?
3. softmax的原理是什么?有什么作用?cnn的平移不变性是什么?如何实现的?
4. vgg,googlenet,resnet等网络之间的区别是什么?
5. 残差网络为什么能解决梯度消失的问题
6. lstm为什么能解决梯度消失/爆炸的问题
7. attention对比rnn和cnn,分别有哪点你觉得的优势
8. 写出attention的公式
9. attention机制,里面的q,k,v分别代表什么
10. 为什么self-attention可以替代seq2seq
1. golve的损失函数
2. 为什么golve会用的相对比w2v少
3. 层次softmax流程
4. 负采样流程
5. 怎么衡量学到的embedding的好坏
6. 阐述crf原理
7. 详述lda原理
8. lda中的主题矩阵如何计算
9. lda和word2vec区别?lda和doc2vec区别
10. bert的双向体现在什么地方
11. bert的是怎样预训练的
12. 在数据中随机选择 15% 的标记,其中80%被换位[mask],10%不变、10%随机替换其他单词,原因是什么
13. 为什么bert有3个嵌入层,它们都是如何实现的
14. 手写一个multi-head attention
1. dnn与deepfm之间的区别
2. 你在使用deepfm的时候是如何处理欠拟合和过拟合问题的
3. deepfm的embedding初始化有什么值得注意的地方吗
4. youtubenet 变长数据如何处理的
5. youtubenet如何避免百万量级的softmax问题的
6. 推荐系统有哪些常见的评测指标?
7. mlr的原理是什么?做了哪些优化?
1. 常见的模型加速方法
2. 目标检测里如何有效解决常见的前景少背景多的问题
3. 目标检测里有什么情况是ssd、yolov3、faster r-cnn等所不能解决的,假设网络拟合能力无限强
4. roipool和roialign的区别
5. 介绍常见的梯度下降优化方法
6. detection你觉的还有哪些可做的点
7. mini-batch sgd相对于gd有什么优点
8. 人体姿态估计主流的两个做法是啥?简单介绍下
9. 卷积的实现原理以及如何快速高效实现局部weight sharing的卷积操作方式
10. cyclegan的生成效果为啥一般都是位置不变纹理变化,为啥不能产生不同位置的生成效果