关于Matrix Factorization和Representation Learning的一点思考

Matrix Factorization 与 Representation Learning

2018.6.6

之前自己课题研究相关工作中提了MF和RL,对它们之间的关系有点困惑😖。

两者本质都是Embedding,为什么要分开来呢?

其实,MF是对user-item矩阵进行分解,只关心现有的打分矩阵;

而RL是存在一个上下文关系的,其来源于NLP中word embedding,在2013年word embedding被提出之前,NLP中对word进行向量化是用过两个词一起出现的次数来建立matrix,然后使用MF(当时称为隐语义模型 LFM)来得到每个词的向量表示。而word embedding提出来之后,每个句子中的词都是存在一个上下文关系,对每个词进行向量化就需要考虑其上下文,这个上下文就不仅仅局限于临近的词了,这里就有了Skip-gram和CBOW来对考虑这种关系。而RL在Recommender System中,就是考虑每个item的上下文,即和该item中一起被购买的item则可以称之为其上下文,而一起购买的item一般都存在相似性,所以可以使用频繁项集挖掘等方式来计算item之间的相似度,而这个相似度则可以用来约束item embedding。

在Cofactor这篇论文中,就是将MF与co-occurence item结合,item embedding通过这两者共同学习得到,从而使得item embedding更加丰富。