2013百度校园招聘数据挖掘工程师html
1、简答题(30分)
一、简述数据库操做的步骤(10分)ios
步骤:创建数据库链接、打开数据库链接、创建数据库命令、运行数据库命令、保存数据库命令、关闭数据库链接。算法
经萍萍提醒,了解到应该把preparedStatement预处理也考虑在数据库的操做步骤中。此外,对实时性要求不强时,可使用数据库缓存。数据库
二、TCP/IP的四层结构(10分)数组
三、什么是MVC结构,简要介绍各层结构的做用(10分)缓存
Model、view、control。数据结构
我以前有写过一篇《MVC层次的划分》iphone
2、算法与程序设计(45分)
一、由a-z、0-9组成3位的字符密码,设计一个算法,列出并打印全部可能的密码组合(可用伪代码、C、C++、Java实现)(15分)函数
把a-z,0-9共(26+10)个字符作成一个数组,而后用三个for循环遍历便可。每一层的遍历都是从数组的第0位开始。oop
二、实现字符串反转函数(15分)
#include <iostream> #include <string> using namespace std; void main(){ string s = "abcdefghijklm"; cout << s << endl; int len = s.length(); char temp = 'a'; for(int i = 0; i < len/2; i++){ temp = s[i]; s[i] = s[len - 1 - i]; s[len - 1 - i] = temp; } cout << s; }
三、百度凤巢系统,广告客户购买一系列关键词,数据结构以下:(15分)
User1 手机 智能手机 iphone 台式机 …
User2 手机 iphone 笔记本电脑 三星手机 …
User3 htc 平板电脑 手机 …
(1)根据以上数据结构对关键词进行KMeans聚类,请列出关键词的向量表示、距离公式和KMeans算法的总体步骤
KMeans方法一个很重要的部分就是如何定义距离,而距离又牵扯到特征向量的定义,毕竟距离是对两个特征向量进行衡量。
本题中,咱们创建一个table。
只要两个关键词在同一个user的描述中出现,咱们就将它在相应的表格的位置加1.
这样咱们就有了每一个关键词的特征向量。
例如:
<手机>=(1,1,2,1,1,1,0,0)
<智能手机> = (1,1,1,1,0,0,0,0)
咱们使用夹角余弦公式来计算这两个向量的距离。
夹角余弦公式:
设有两个向量a和b,,
因此,cos<手机,智能机>=(1+1+2+1)/(sqrt(7+2^2)*sqrt(4))=0.75
cos<手机,iphone>=(2+1+2+1+1+1)/(sqrt(7+2^2)*sqrt(2^2+5))=0.80
夹角余弦值越大说明二者之间的夹角越小,夹角越小说明相关度越高。
经过夹角余弦值咱们能够计算出每两个关键词之间的距离。
特征向量和距离计算公式的选择(还有其余不少种距离计算方式,各有其适应的应用场所)完成后,就能够进入KMeans算法。
KMeans算法有两个主要步骤:一、肯定k个中心点;二、计算各个点与中心点的距离,而后贴上类标,而后针对各个类,从新计算其中心点的位置。
初始化时,能够设定k个中心点的位置为随机值,也能够全赋值为0。
KMeans的实现代码有不少,这里就不写了。
不过值得一提的是MapReduce模型并不适合计算KMeans这类递归型的算法,MR最拿手的仍是流水型的算法。KMeans可使用MPI模型很方便的计算(庆幸的是YARN中彷佛开始支持MPI模型了),因此hadoop上如今也能够方便的写高效算法了(可是要是MRv2哦)。
(2)计算给定关键词与客户关键词的文字相关性,请列出关键词与客户的表达符号和计算公式
这边的文字相关性不知道是否是指非语义的相关性,而只是词频统计上的相关性?若是是语义相关的,可能还须要引入topic model来作辅助(能够看一下百度搜索研发部官方博客的这篇【语义主题计算】)……
若是是指词频统计的话,我的认为可使用Jaccard系数来计算。
经过第一问中的表格,咱们能够知道某个关键词的向量,如今将这个向量作一个简单的变化:若是某个份量不为0则记为1,表示包含这个份量元素,这样某个关键词就能够变成一些词语的集合,记为A。
客户输入的关键词列表也能够表示为一个集合,记为B
Jaccard系数的计算方法是:
因此,假设某个用户userX的关键词表达为:{三星手机,手机,平板电脑}
那么,关键词“手机”与userX的关键词之间的相关性为:
J("手机",“userX关键词”)=|{三星手机,手机,平板电脑}|/|{手机,智能手机,iphone,台式机,笔记本电脑,三星手机,HTC,平板电脑}| = 3/8
关键词“三星手机”与用户userX的关键词之间的相关性为:
J("三星手机",“userX关键词”)=|{手机,三星手机}|/|{手机,三星手机,iphone,笔记本电脑,平板电脑}| = 2/5
3、系统设计题(25分)
一维数据的拟合,给定数据集{xi,yi}(i=1,…,n),xi是训练数据,yi是对应的预期值。拟使用线性、二次、高次等函数进行拟合
线性:f(x)=ax+b
二次:f(x)=ax^2+bx+c
三次:f(x)=ax^3+bx^2+cx+d
(1)请依次列出线性、二次、三次拟合的偏差函数表达式(2分)
偏差函数的计算公式为:
系数1/2只是为了以后求导的时候方便约掉而已。
那分别将线性、二次、三次函数带入至公式中f(xi)的位置,就能够获得它们的偏差函数表达式了。
(2)按照梯度降低法进行拟合,请给出具体的推导过程。(7分)
假设咱们样本集的大小为m,每一个样本的特征向量为X1=(x11,x12, ..., x1n)。
那么整个样本集能够表示为一个矩阵:
其中每一行为一个样本向量。
咱们假设系数为θ,则有系数向量:
对于第 i 个样本,咱们定义偏差变量为
咱们能够计算cost function:
因为θ是一个n维向量,因此对每个份量求偏导:
梯度降低的精华就在于下面这个式子:
这个式子是什么意思呢?是将系数减去导数(导数前的系数先暂时不用理会),为何是减去导数?咱们看一个二维的例子。
假设有一个曲线如图所示:
假设咱们处在红色的点上,那么获得的导数是个负值。此时,我在当前位置(x轴)的基础上减去一个负值,就至关于加上了一个正值,那么就朝导数为0的位置移动了一些。
若是当前所处的位置是在最低点的右边,那么就是减去一个正值(导数为正),至关于往左移动了一些距离,也是朝着导数为0的位置移动了一些。
这就是梯度降低最本质的思想。
那么到底一次该移动多少呢?就是又导数前面的系数α来决定的。
如今咱们再来看梯度降低的式子,若是写成矩阵计算的形式(使用隐式循环来实现),那么就有:
这边会有点棘手,由于j肯定时,xij为一个数值(即,样本的第j个份量),Xθ-Y为一个m*1维的列向量(暂时称做“偏差向量”)。
括号里面的部分就至关于:
第1个样本第j个份量*偏差向量 + 第2个样本第j个份量*偏差向量 + ... + 第m个样本第j个份量*偏差向量
咱们来考察一下式子中各个部分的矩阵形式。
当j固定时,至关于对样本空间作了一个纵向切片,即:
那么此时的xij就是m*1向量,因此为了获得1*1的形式,咱们须要拼凑 (1*m)*(m*1)的矩阵运算,所以有:
若是把θ向量的每一个份量统一考虑,则有:
关于θ向量的不断更新的终止条件,通常以偏差范围(如95%)或者迭代次数(如5000次)进行设定。
梯度降低的有点是:
不像矩阵解法那么须要空间(由于矩阵解法须要求矩阵的逆)
缺点是:若是赶上非凸函数,可能会陷入局部最优解中。对于这种状况,能够尝试几回随机的初始θ,看最后convergence时,获得的向量是不是类似的。
(3)下图给出了线性、二次和七次拟合的效果图。请说明进行数据拟合时,须要考虑哪些问题。在本例中,你选择哪一种拟合函数。(8分)
由于是在网上找的题目,没有看到图片是长什么样。大体可能有以下几种状况。
若是是如上三幅图的话,固然是选择中间的模型。
欠拟合的发生通常是由于假设的模型过于简单。而过拟合的缘由则是模型过于复杂且训练数据量太少。
对于欠拟合,能够增长模型的复杂性,例如引入更多的特征向量,或者高次方模型。
对于过拟合,能够增长训练的数据,又或者增长一个L2 penalty,用以约束变量的系数以实现下降模型复杂度的目的。
L2 penalty就是:
(注意不要把常数项系数也包括进来,这里假设常数项是θ0)
另外常见的penalty还有L1型的:
(L1型的主要是作稀疏化,即sparsity)
二者为何会有这样做用上的区别能够找一下【统计之都】上的相关文章看一下。我也还没弄懂底层的缘由是什么。
(4)给出实验方案(8分)
2013网易实习生招聘 岗位:数据挖掘工程师
1、问答题
a) 欠拟合和过拟合的缘由分别有哪些?如何避免?
欠拟合:模型过于简单;过拟合:模型过于复杂,且训练数据太少。
b) 决策树的父节点和子节点的熵的大小?请解释缘由。
父节点的熵>子节点的熵
c) 衡量分类算法的准确率,召回率,F1值。
d) 举例序列模式挖掘算法有哪些?以及他们的应用场景。
DTW(动态事件规整算法):语音识别领域,判断两端序列是不是同一个单词。
Holt-Winters(三次指数平滑法):对时间序列进行预测。时间序列的趋势、季节性。
Apriori
Generalized Sequential Pattern(广义序贯模式)
PrefixSpan
2、计算题
1) 给你一组向量a,b
a) 计算两者欧氏距离
(a-b)(a-b)T
即:
b) 计算两者曼哈顿距离
2) 给你一组向量a,b,c,d
a) 计算a,b的Jaccard类似系数
b) 计算c,d的向量空间余弦类似度
c) 计算c、d的皮尔森相关系数
即线性相关系数。
或者
3、(题目记得不是很清楚)
一个文档-词矩阵,给你一个变换公式tfij’=tfij*log(m/dfi);其中tfij表明单词i在文档f中的频率,m表明文档数,dfi含有单词i的文档频率。
1) 只有一个单词只存在文档中,转换的结果?(具体问题忘记)
2) 有多个单词存在在多个文档中,转换的结果?(具体问题忘记)
3) 公式变换的目的?
4、推导朴素贝叶斯分类P(c|d),文档d(由若干word组成),求该文档属于类别c的几率,
并说明公式中哪些几率能够利用训练集计算获得。
5、给你五张人脸图片。
能够抽取哪些特征?按照列出的特征,写出第一个和最后一个用户的特征向量。
6、考查ID3算法,根据天气分类outlook/temperature/humidity/windy。(给你一张离散型
的图表数据,通常学过ID3的应该都知道)
a) 哪个属性做为第一个分类属性?
b) 画出二层决策树。
7、购物篮事物(关联规则)
一个表格:事物ID/购买项。
1) 提取出关联规则的最大数量是多少?(包括0支持度的规则)
2) 提取的频繁项集的最大长度(最小支持>0)
3) 找出能提取出4-项集的最大数量表达式
4) 找出一个具备最大支持度的项集(长度为2或更大)
5) 找出一对项a,b,使得{a}->{b}和{b}->{a}有相同置信度。
8、一个发布优惠劵的网站,如何给用户作出合适的推荐?有哪些方法?设计一个合适的系统(线下数据处理,存放,线上如何查询?)