在前幾節(jié)中,僅考慮了明確的反饋,并根據(jù)觀察到的評分對模型進(jìn)行了訓(xùn)練和測試。這種方法有兩個缺點(diǎn):首先,大多數(shù)反饋在現(xiàn)實(shí)世界場景中不是顯式的而是隱式的,收集顯式反饋的成本更高。其次,完全忽略了可能預(yù)測用戶興趣的未觀察到的用戶-項目對,使得這些方法不適用于評級不是隨機(jī)丟失而是由于用戶偏好而丟失的情況。未觀察到的用戶-項目對是真實(shí)負(fù)反饋(用戶對項目不感興趣)和缺失值(用戶將來可能與項目交互)的混合體。我們簡單地忽略矩陣分解和 AutoRec 中未觀察到的對。清楚地,
為此,一類旨在從隱式反饋生成排名推薦列表的推薦模型得到了普及。一般而言,個性化排名模型可以通過逐點(diǎn)、成對或列表方法進(jìn)行優(yōu)化。Pointwise 方法一次考慮單一交互,并訓(xùn)練分類器或回歸器來預(yù)測個人偏好。矩陣分解和 AutoRec 使用逐點(diǎn)目標(biāo)進(jìn)行了優(yōu)化。成對方法為每個用戶考慮一對項目,并旨在為該對近似優(yōu)化排序。通常,成對方法更適合排序任務(wù),因?yàn)轭A(yù)測相對順序讓人聯(lián)想到排序的本質(zhì)。Listwise 方法近似于整個項目列表的順序,例如,NDCG)。然而,listwise 方法比 pointwise 或 pairwise 方法更復(fù)雜,計算量更大。在本節(jié)中,我們將介紹兩個成對目標(biāo)/損失,貝葉斯個性化排名損失和鉸鏈損失,以及它們各自的實(shí)現(xiàn)。
21.5.1。貝葉斯個性化排序損失及其實(shí)現(xiàn)
貝葉斯個性化排名 (BPR) (Rendle等人,2009 年)是一種成對的個性化排名損失,源自最大后驗(yàn)估計。它已被廣泛應(yīng)用于許多現(xiàn)有的推薦模型中。BPR 的訓(xùn)練數(shù)據(jù)由正負(fù)對(缺失值)組成。它假設(shè)用戶比所有其他未觀察到的項目更喜歡正面項目。
在形式上,訓(xùn)練數(shù)據(jù)由元組構(gòu)成,形式為 (u,i,j), 代表用戶u喜歡這個項目i在項目上j. 下面給出了旨在最大化后驗(yàn)概率的 BPR 的貝葉斯公式:
在哪里Θ表示任意推薦模型的參數(shù),>u表示用戶期望的所有項目的個性化總排名u. 我們可以制定最大后驗(yàn)估計來推導(dǎo)出個性化排名任務(wù)的通用優(yōu)化標(biāo)準(zhǔn)。
在哪里 D=def{(u,i,j)∣i∈Iu+∧j∈I?Iu+} 是訓(xùn)練集,有Iu+表示用戶的項目 u喜歡,I表示所有項目,并且 I?Iu+指示除用戶喜歡的項目之外的所有其他項目。y^ui和y^uj是用戶的預(yù)測分?jǐn)?shù)u到項目i和j, 分別。先驗(yàn)的
評論