个性化推荐调优:重写spark推荐api

​最近用spark的mlib模块中的协同过滤库做个性化推荐。spark里面用的是als算法,本质上是矩阵分解svd降维,把一个M*N的用户商品评分矩阵分解为M*K的userFeature(用户特征矩阵)和K*N的productFeature(商品特征矩阵),由于K远小于N和M,存储和计算获得相应的优化。 这样对于一个用户a,推荐100个商品怎么做呢?取a的特征向量(1*K)和productFeat
相关文章
相关标签/搜索