㈠ 推荐算法基础2--隐语义模型LFM和矩阵分解MF
隐语义模型(LFM)和矩阵分解(MF)是处理稀疏矩阵问题,增强推荐系统泛化能力的重要技术。CF算法在处理稀疏矩阵时存在局限性,为解决这一问题,产生了矩阵分解模型,如隐语义模型、LDA、隐含类别模型、PLSA等。这些模型通过使用更稠密的隐向量表示用户和物品,挖掘其隐含兴趣和特征,弥补了协同过滤在稀疏矩阵处理上的不足。
隐语义模型在协同过滤基础上,通过更密集的隐向量表示用户和物品,探索用户和物品的隐含兴趣和特征,一定程度上解决了稀疏矩阵问题。在Netflix Prize中,矩阵分解模型大放异彩,核心思想是通过隐含特征联系用户兴趣与物品。LFM的提出简化了矩阵分解问题为最优化问题,利用梯度下降法求解用户矩阵和物品矩阵。
矩阵分解算法将原始评分矩阵分解为用户矩阵和物品矩阵的乘积,其中用户矩阵和物品矩阵中的向量表示了用户的兴趣和物品的特征。这些向量能够保证相似的用户和用户可能喜欢的物品在空间上靠近,从而预测用户对物品的评分。
在求解矩阵分解问题时,常用的方法有SVD、RSVD等。SVD算法通过特征值分解或奇异值分解,将原始矩阵分解为用户矩阵和物品矩阵。然而,SVD算法在处理大规模稀疏矩阵时面临计算复杂度高和可能的过拟合问题,因此引入正则化损失(RSVD)以解决这一问题。此外,通过添加偏置项(SVD++)来考虑用户和物品的固有属性和历史行为,进一步提高了推荐系统的准确性和泛化能力。
矩阵分解算法的优点在于泛化能力强,空间复杂度低,易于与其他特征组合,与深度学习兼容。然而,它主要依赖评分矩阵信息,忽略用户、物品和上下文特征,限制了信息利用的全面性。为解决这一局限,逻辑回归模型及后续的因子分解机模型因其融合不同特征的能力而广泛应用于推荐系统领域。