淘先锋技术网

首页 1 2 3 4 5 6 7

0 简介

论文题目:Selection bias mitigation in recommender system using uninteresting items based on temporal visibility
发表情况:2023年,Expert Systems With Applications
论文地址:
https://doi.org/10.1016/j.eswa.2022.118932
论文源代码:目前没发现

1 动机

这篇论文应该是借鉴了“Told You I Didn’t Like It”: Exploiting Uninteresting Items for Effective Collaborative Filtering的想法,我们主要关注是这两篇论文的不同之处。

主要区别在于计算使用前偏好上:

  • Told You I Didn’t Like It:利用矩阵分解,只考虑用户评分因素;
  • Selection bias mitigation:结合用户活动、商品受欢迎程度和时间因素,综合衡量商品对用户的可见性,并使用时间可见性(temporal visibility)对缺失数据进行非均匀加权,以计算他们的使用前偏好。

2 主要方案

2.1 使用前偏好分析

  • 使用前偏好一般基于用户对物品外部特征的偏好,这些特征可以在没有实际使用的情况下获得,如电影类型、主演等。
  • 使用后偏好取决于用户对物品内部特征的偏好,比如电影故事情节。

对于使用前偏好较低的物品,用户在看到它们时不会进行交互。可以推断,他们的使用后偏好很低,即评分很低。

对于用户评分的物品,可以简单地推断出他们的使用前偏好非常高。挑战在于如何准确地推断未评分物品的使用前偏好。这是一类(one-class)问题(Pan et al., 2008),也就是说,观察到的评分是正样本,缺乏负样本。当隐性反馈缺乏负样本时,已有研究提出了两种应对策略。一种是基于样本的学习(He & McAuley, 2016),从缺失数据中提取负样本。另一种是全数据学习(whole-data-based learning),将所有缺失的数据视为负样本,并赋予其权重,作为它们是负样本的置信度。前者不需要考虑所有缺失数据,效率高,但不可避免地存在丢失有价值信息的风险,模型的鲁棒性较差。后者使用所有数据,覆盖率较高,但效率较低。为了保持模型的鲁棒性,我们使用了基于全数据的学习。加权正则化矩阵分解(WRMF)将所有缺失数据作为负样本,并分配小的统一权重(Hu, Koren & Volinsky, 2008)。我们认为未评分项目的置信度与负样本相同,但这与实际情况不一致。基于项目的受欢迎程度,元素替代最小二乘(eALS)对未评分的项目进行非均匀加权(He, Zhang, Kan & Chua, 2016)。越受欢迎的商品,在用户不互动的情况下,越容易被用户看到,负样本的置信度越高,应给予更高的权重。但是,这些方法没有考虑到用户之间的差异以及时间因素对知名度的影响。

目前的大多数方法都是基于一种体验,即只看不互动的项目显示了用户的负面偏好。一个物品越有可能被用户看到,而用户不进行交互,那么它是一个负面例子的置信度就越高。关键是如何准确地推断用户是否看到了该项目。目前流行的方法是利用商品的受欢迎程度来推断商品对用户的可见性,但可靠性不高。事实上,不同活动的用户对物品的可见性不同,物品的受欢迎程度随着时间的推移而变化(He et al., 2014)。我们将提出一种更细粒度的加权方案。同时,为了缓解整体数据学习带来的效率问题,我们使用eALS对目标算法进行优化。该方法为处理加权矩阵分解以优化元素级参数提供了一种新的思路。该方法避免了传统ALS矩阵分解中需要矩阵求逆的问题,提高了效率。

2.2 ITV-eALS模型

评过分的项目使用前偏好为1:
p u i = { 0 , r u i =  null  1 , r u i ≠  null  p_{u i}=\left\{\begin{array}{l} 0, r_{u i}=\text { null } \\ 1, r_{u i} \neq \text { null } \end{array}\right. pui={0,rui= null 1,rui= null 
利用矩阵分解来预测
J = ∑ u = 1 m ∑ i = 1 n w u i ( p u i − r ^ u i ) 2 + λ ( ∑ u = 1 m ∥ x u ∥ 2 + ∑ i = 1 n ∥ y i ∥ 2 ) J=\sum_{u=1}^{m} \sum_{i=1}^{n} w_{u i}\left(p_{u i-} \widehat{r}_{u i}\right)^{2}+\lambda\left(\sum_{u=1}^{m}\left\|x_{u}\right\|^{2}+\sum_{i=1}^{n}\left\|y_{i}\right\|^{2}\right) J=u=1mi=1nwui(puir ui)2+λ(u=1mxu2+i=1nyi2)
此处 r ^ u i = x u y i T \widehat{r}_{u i} = x_uy_i^T r ui=xuyiT W = ( w u i ) m × n W=\left(w_{u i}\right)_{m \times n} W=(wui)m×n
本文和“Told You I Didn’t Like It” 最大区别就在于 W W W的计算,“Told You I Didn’t Like It” 在计算 W W W的时候只考虑用户评分项目的数量,本文不但考虑用户评分项目的数量(通过 α ^ u \widehat{\alpha}_u α u来体现),还加入了时间因素,某个时间阶段用户评分项目的数量
w u i = { 1 , p u i = 1 ε α ^ u + ( 1 − ε ) β ^ i , p u i = 0 w_{u i}=\left\{\begin{array}{c} 1, p_{u i}=1 \\ \varepsilon \widehat{\alpha}_{u}+(1-\varepsilon) \widehat{\beta}_{i}, p_{u i}=0 \end{array}\right. wui={1,pui=1εα u+(1ε)β i,pui=0
α ^ u = ∑ i = 1 n p u i \widehat{\alpha}_u = \sum_{i=1}^n p_{ui} α u=i=1npui表示用户 u u u在某一个时间阶段 [ t m i n , t m a x ] [t_{min}, t_{max}] [tmin,tmax]评分项目的数量,并利用 log ⁡ \log log函数归一化:
α ^ u = log ⁡ ( α u ) max ⁡ ( log ⁡ ( α ) ) \widehat{\alpha}_u=\frac{\log \left(\alpha_u\right)}{\max (\log (\alpha))} α u=max(log(α))log(αu)
β ^ i = ∑ u = 1 m p u i \widehat{\beta}_i = \sum_{u=1}^m p_{ui} β i=u=1mpui表示项目 i i i在某一个时间阶段 [ t m i n , t m a x ] [t_{min}, t_{max}] [tmin,tmax]被用户评分的数量,并利用 log ⁡ \log log函数归一化:
β ^ i = log ⁡ ( β i ) max ⁡ ( log ⁡ ( β ) ) \widehat{\beta}_i=\frac{\log \left(\beta_i\right)}{\max (\log (\beta))} β i=max(log(β))log(βi)
后面的填充方法和“Told You I Didn’t Like It” 一样。

3 实验结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述