天天看点

皮尔逊相关系数 余弦相似度

皮尔逊相关系数 余弦相似度

两个向量

皮尔逊相关系数 余弦相似度

相似度计算 高中知识计算cos。

皮尔逊相关系数 余弦相似度

n维同理 。

越接近1 越相似。

推荐系统中协同过滤 user-item矩阵中某个用户的向量评分假设

A(1,1,2,1,1,1,0,0,0)

B(1,1,1,0,1,1,1,1,1)

皮尔逊相关系数 余弦相似度

相似度为0.81接近1. 挺高。

皮尔逊相关系数:

余弦相似度的问题是: 其计算严格要求"两个向量必须所有维度上都有数值,不可以空。实际中很容易空 用户不评价。这就可以用皮尔逊相关系数,先将null变成0,再将两个向量都先进行中心化。(有人这么说) 。还有说是中心化可以去除量纲影响。

中心化的意思是说, 对每个向量, 我先计算所有元素的平均值avg, 然后向量中每个维度的值都减去这个avg, 得到的这个向量叫做被中心化的向量. 中心化之后所有维度的平均值就是0了,然后再进行我们的余弦计算得到结果。下图的rx即为平均值。

皮尔逊相关系数 余弦相似度

公式如上 

pearson是一个介于-1和1之间的值,当两个变量的线性关系增强时,相关系数趋于1或-1;当一个变量增大,另一个变量也增大时,表明它们之间是正相关的,相关系数大于0;如果一个变量增大,另一个变量却减小,表明它们之间是负相关的,相关系数小于0;如果相关系数等于0,表明它们之间不存在线性相关关系。

继续阅读