㈠ 推薦演算法基礎2--隱語義模型LFM和矩陣分解MF
隱語義模型(LFM)和矩陣分解(MF)是處理稀疏矩陣問題,增強推薦系統泛化能力的重要技術。CF演算法在處理稀疏矩陣時存在局限性,為解決這一問題,產生了矩陣分解模型,如隱語義模型、LDA、隱含類別模型、PLSA等。這些模型通過使用更稠密的隱向量表示用戶和物品,挖掘其隱含興趣和特徵,彌補了協同過濾在稀疏矩陣處理上的不足。
隱語義模型在協同過濾基礎上,通過更密集的隱向量表示用戶和物品,探索用戶和物品的隱含興趣和特徵,一定程度上解決了稀疏矩陣問題。在Netflix Prize中,矩陣分解模型大放異彩,核心思想是通過隱含特徵聯系用戶興趣與物品。LFM的提出簡化了矩陣分解問題為最優化問題,利用梯度下降法求解用戶矩陣和物品矩陣。
矩陣分解演算法將原始評分矩陣分解為用戶矩陣和物品矩陣的乘積,其中用戶矩陣和物品矩陣中的向量表示了用戶的興趣和物品的特徵。這些向量能夠保證相似的用戶和用戶可能喜歡的物品在空間上靠近,從而預測用戶對物品的評分。
在求解矩陣分解問題時,常用的方法有SVD、RSVD等。SVD演算法通過特徵值分解或奇異值分解,將原始矩陣分解為用戶矩陣和物品矩陣。然而,SVD演算法在處理大規模稀疏矩陣時面臨計算復雜度高和可能的過擬合問題,因此引入正則化損失(RSVD)以解決這一問題。此外,通過添加偏置項(SVD++)來考慮用戶和物品的固有屬性和歷史行為,進一步提高了推薦系統的准確性和泛化能力。
矩陣分解演算法的優點在於泛化能力強,空間復雜度低,易於與其他特徵組合,與深度學習兼容。然而,它主要依賴評分矩陣信息,忽略用戶、物品和上下文特徵,限制了信息利用的全面性。為解決這一局限,邏輯回歸模型及後續的因子分解機模型因其融合不同特徵的能力而廣泛應用於推薦系統領域。