zoukankan      html  css  js  c++  java
  • 基于CNN的电影推荐系统

    从深度学习卷积神经网络入手,基于 Github 的开源项目来完成 MovieLens 数据集的电影推荐系统。

    什么是推荐系统呢?

    什么是推荐系统呢?首先我们来看看几个常见的推荐场景。

    如果你经常通过豆瓣电影评分来找电影,你会发现下图所示的推荐:

    enter image description here

    如果你喜欢购物,根据你的选择和购物行为,平台会给你推荐相似商品:

    enter image description here

    在互联网的很多场景下都可以看到推荐的影子。因为推荐可以帮助用户和商家满足不同的需求:

    • 对用户而言:找到感兴趣的东西,帮助发现新鲜、有趣的事物。

    • 对商家而言:提供个性化服务,提高信任度和粘性,增加营收。

    常见的推荐系统主要包含两个方面的内容,基于用户的推荐系统(UserCF)和基于物品的推荐系统(ItemCF)。两者的区别在于,UserCF 给用户推荐那些和他有共同兴趣爱好的用户喜欢的商品,而 ItemCF 给用户推荐那些和他之前喜欢的商品类似的商品。这两种方式都会遭遇冷启动问题。

    下面是 UserCF 和 ItemCF 的对比:

    enter image description here

    CNN 是如何应用在文本处理上的?

    提到卷积神经网络(CNN),相信大部分人首先想到的是图像分类,比如 MNIST 手写体识别,CAFRI10 图像分类。CNN 已经在图像识别方面取得了较大的成果,随着近几年的不断发展,在文本处理领域,基于文本挖掘的文本卷积神经网络被证明是有效的。

    首先,来看看 CNN 是如何应用到 NLP 中的,下面是一个简单的过程图:

    enter image description here

    和图像像素处理不一样,自然语言通常是一段文字,那么在特征矩阵中,矩阵的每一个行向量(比如 word2vec 或者 doc2vec)代表一个 Token,包括词或者字符。如果一段文字包含有 n 个词,每个词有 m 维的词向量,那么我们可以构造出一个 n*m 的词向量矩阵,在 NLP 处理过程中,让过滤器宽度和矩阵宽度保持一致整行滑动。

    实战基于 CNN 的电影推荐系统

    将 CNN 的技术应用到自然语言处理中并与电影推荐相结合,来训练一个基于文本的卷积神经网络,实现电影个性化推荐系统。

    首先感谢作者 chengstone 的分享,源码请访问下面网址:

    在验证了 CNN 应用在自然语言处理上是有效的之后,从推荐系统的个性化推荐入手,在文本上,把 CNN 成果应用到电影的个性化推荐上。并在特征工程中,对训练集和测试集做了相应的特征处理,其中有部分字段是类型性变量,特征工程上可以采用 one-hot 编码,但是对于 UserID、MovieID 这样非常稀疏的变量,如果使用 one-hot,那么数据的维度会急剧膨胀,对于这份数据集来说是不合适的。

    具体算法设计如下:

    1. 定义用户嵌入矩阵。

    用户的特征矩阵主要是通过用户信息嵌入网络来生成的,在预处理数据的时候,我们将 UserID、MovieID、性别、年龄、职业特征全部转成了数字类型,然后把这个数字当作嵌入矩阵的索引,在网络的第一层就使用嵌入层,这样数据输入的维度保持在(N,32)和(N,16)。然后进行全连接层,转成(N,128)的大小,再进行全连接层,转成(N,200)的大小,这样最后输出的用户特征维度相对比较高,也保证了能把每个用户所带有的特征充分携带并通过特征表达。

    具体流程如下:

    enter image description here

    2. 生成用户特征。

    生成用户特征是在用户嵌入矩阵网络输出结果的基础上,通过2层全连接层实现的。第一个全连接层把特征矩阵转成(N,128)的大小,再进行第二次全连接层,转成(N,200)的大小,这样最后输出的用户特征维度相对比较高,也保证了能把每个用户所带有的特征充分携带并通过特征表达。

    具体流程如下:

    enter image description here

    3. 定义电影 ID 嵌入矩阵。

    通过电影 ID 和电影类型分别生成电影 ID 和电影类型特征,电影类型的多个嵌入向量做加和输出。电影 ID 的实现过程和上面一样,但是对于电影类型的处理相较于上面,稍微复杂一点。因为电影类型有重叠性,一个电影可以属于多个类别,当把电影类型从嵌入矩阵索引出来之后是一个(N,32)形状的矩阵,因为有多个类别,这里采用的处理方式是矩阵求和,把类别加上去,变成(1,32)形状,这样使得电影的类别信息不会丢失。

    具体流程如下:

    enter image description here

    4. 文本卷积神经网络设计。

    文本卷积神经网络和单纯的 CNN 网络结构有点不同,因为自然语言通常是一段文字与图片像素组成的矩阵是不一样的。在电影文本特征矩阵中,矩阵的每一个行构成的行向量代表一个 Token,包括词或者字符。如果一段文字有 n 个词,每个词有 m 维的词向量,那么我们可以构造出一个 n*m 的矩阵。而且 NLP 处理过程中,会有多个不同大小的过滤器串行执行,且过滤器宽度和矩阵宽度保持一致,是整行滑动。在执行完卷积操作之后采用了 ReLU 激活函数,然后采用最大池化操作,最后通过全连接并 Dropout 操作和 Softmax 输出。这里电影名称的处理比较特殊,并没有采用循环神经网络,而采用的是文本在 CNN 网络上的应用。

    对于电影数据集,我们对电影名称做 CNN 处理,其大致流程,从嵌入矩阵中得到电影名对应的各个单词的嵌入向量,由于电影名称比较特殊一点,名称长度有一定限制,这里过滤器大小使用时,就选择2、3、4、5长度。然后对文本嵌入层使用滑动2、3、4、5个单词尺寸的卷积核做卷积和最大池化,然后 Dropout 操作,全连接层输出。

    具体流程如下:

    enter image description here

    具体过程描述:

    (1)首先输入一个 32*32 的矩阵;

    (2)第一次卷积核大小为 2*2,得到 31*31 的矩阵,然后通过 [1,14,1,1] max-pooling 操作,得到的矩阵为 18*31

    (3)第二次卷积核大小为 3*3,得到 16*29的矩阵,然后通过[1,13,1,1] 的max-pooling 操作,得到的矩阵为 4*29

    (4)第三次卷积核大小 4*4,得到 1*26 的矩阵,然后通过 [1,12,1,1] 的max-pooling 操作,得到的矩阵为 1*26

    (5)第四次卷积核大小 5*5,得到 1*22 的矩阵,然后通过 [1,11,1,1] 的max-pooling 操作,得到的矩阵为 1*22

    (6)最后通过 Dropout 和全连接层,len(window_sizes) * filter_num =32,得到 1*32的矩阵。

    5. 电影各层做一个全连接层。

    将上面几步生成的特征向量,通过2个全连接层连接在一起,第一个全连接层是电影 ID 特征和电影类型特征先全连接,之后再和 CNN 生成的电影名称特征全连接,生成最后的特征集。

    具体流程如下:

    enter image description here

    6. 完整的基于 CNN 的电影推荐流程。

    把以上实现的模块组合成整个算法,将网络模型作为回归问题进行训练,得到训练好的用户特征矩阵和电影特征矩阵进行推荐。

    enter image description here

    基于 CNN 的电影推荐系统代码调参过程

    在训练过程中,我们需要对算法预先设置一些超参数,这里给出的最终的设置结果:

    # 设置迭代次数
    num_epochs = 5
    # 设置BatchSize大小
    batch_size = 256
    # 设置dropout保留比例
    dropout_keep = 0.5
    # 设置学习率
    learning_rate = 0.0001
    # 设置每轮显示的batches大小
    show_every_n_batches = 20

    首先对数据集进行划分,按照 4:1 的比例划分为训练集和测试集,下面给出的是算法模型最终训练集合测试集使用的划分结果:

    # 将数据集分成训练集和测试集,随机种子不固定
    train_X, test_X, train_y, test_y = train_test_split(features,
                                                        targets_values,
                                                        test_size=0.3,
                                                        random_state=0) 

    接下来是具体模型训练过程。训练过程,要不断调参,根据经验调参粒度可以选择从粗到细分阶段进行。

    调参过程对比:

    (1)第一步,先固定,learning_rate=0.01 和 num_epochs=10,测试batch_size=128 对迭代时间和 Loss 的影响;

    (2)第二步,先固定,learning_rate=0.01 和 num_epochs=10,测试batch_size=256 对迭代时间和 Loss 的影响;

    (3)第三步,先固定,learning_rate=0.01 和 num_epochs=10,测试batch_size=512 对迭代时间和 Loss 的影响;

    (4)第四步,先固定,learning_rate=0.01 和 num_epochs=5,测试batch_size=128 对迭代时间和 Loss 的影响;

    (5)第五步,先固定,learning_rate=0.01 和 num_epochs=5,测试batch_size=256 对迭代时间和 Loss 的影响;

    (6)第六步,先固定,learning_rate=0.01 和 num_epochs=5,测试batch_size=512 对迭代时间和 Loss 的影响;

    (7)第七步,先固定,batch_size=256 和 num_epochs=5,测试learning_rate=0.001 对 Loss 的影响;

    (8)第八步,先固定,batch_size=256 和 num_epochs=5,测试learning_rate=0.0005 对 Loss 的影响;

    (9)第九步,先固定,batch_size=256 和 num_epochs=5,测试learning_rate=0.0001 对 Loss 的影响;

    (10)第十步,先固定,batch_size=256 和 num_epochs=5,测试learning_rate=0.00005 对 Loss 的影响。

    得到的调参结果对比表如下:

    enter image description here

    通过上面(1)-(6)步调参比较,在 learning_ratebatch_size 相同的情况下,num_epochs 对于训练时间影响较大;而在learning_ratenum_epochs 相同情况下,batch_size 对 Loss 的影响较大,batch_size 选择512,Loss 有抖动情况,权衡之下,最终确定后续调参固定采用 batch_size=256num_epochs=5 的超参数值,后续(7)-(10)步,随着 learning_rate 逐渐减小,发现 Loss 是先逐渐减小,而在learning_rate=0.00005 时反而增大,最终选择出学习率为learning_rate=0.0001 的超参数值。

    基于 CNN 的电影推荐系统电影推荐

    在上面,完成模型训练验证之后,实际来进行推荐电影,这里使用生产的用户特征矩阵和电影特征矩阵做电影推荐,主要有三种方式的推荐。

    1. 推荐同类型的电影。

    思路是:计算当前看的电影特征向量与整个电影特征矩阵的余弦相似度,取相似度最大的 top_k 个,这里加了些随机选择在里面,保证每次的推荐稍稍有些不同。

    def recommend_same_type_movie(movie_id_val, top_k=20):
        loaded_graph = tf.Graph()  #
        with tf.Session(graph=loaded_graph) as sess:  #
            # Load saved model
            loader = tf.train.import_meta_graph(load_dir + '.meta')
            loader.restore(sess, load_dir)
    
            norm_movie_matrics = tf.sqrt(tf.reduce_sum(tf.square(movie_matrics), 1, keep_dims=True))
            normalized_movie_matrics = movie_matrics / norm_movie_matrics
    
            # 推荐同类型的电影
            probs_embeddings = (movie_matrics[movieid2idx[movie_id_val]]).reshape([1, 200])
            probs_similarity = tf.matmul(probs_embeddings, tf.transpose(normalized_movie_matrics))
            sim = (probs_similarity.eval())
            print("您看的电影是:{}".format(movies_orig[movieid2idx[movie_id_val]]))
            print("以下是给您的推荐:")
            p = np.squeeze(sim)
            p[np.argsort(p)[:-top_k]] = 0
            p = p / np.sum(p)
            results = set()
            while len(results) != 5:
                c = np.random.choice(3883, 1, p=p)[0]
                results.add(c)
            for val in (results):
                print(val)
                print(movies_orig[val])
            return result

    2. 推荐您喜欢的电影。

    思路是:使用用户特征向量与电影特征矩阵计算所有电影的评分,取评分最高的top_k 个,同样加了些随机选择部分。

    def recommend_your_favorite_movie(user_id_val, top_k=10):
        loaded_graph = tf.Graph()  #
        with tf.Session(graph=loaded_graph) as sess:  #
            # Load saved model
            loader = tf.train.import_meta_graph(load_dir + '.meta')
            loader.restore(sess, load_dir)
    
            # 推荐您喜欢的电影
            probs_embeddings = (users_matrics[user_id_val - 1]).reshape([1, 200])
            probs_similarity = tf.matmul(probs_embeddings, tf.transpose(movie_matrics))
            sim = (probs_similarity.eval())
    
            print("以下是给您的推荐:")
            p = np.squeeze(sim)
            p[np.argsort(p)[:-top_k]] = 0
            p = p / np.sum(p)
            results = set()
            while len(results) != 5:
                c = np.random.choice(3883, 1, p=p)[0]
                results.add(c)
            for val in (results):
                print(val)
                print(movies_orig[val])
    
            return results

    3. 看过这个电影的人还看了(喜欢)哪些电影。

    (1)首先选出喜欢某个电影的 top_k 个人,得到这几个人的用户特征向量;

    (2)然后计算这几个人对所有电影的评分 ;

    (3)选择每个人评分最高的电影作为推荐;

    (4)同样加入了随机选择。

    def recommend_other_favorite_movie(movie_id_val, top_k=20):
        loaded_graph = tf.Graph()  #
        with tf.Session(graph=loaded_graph) as sess:  #
            # Load saved model
            loader = tf.train.import_meta_graph(load_dir + '.meta')
            loader.restore(sess, load_dir)
            probs_movie_embeddings = (movie_matrics[movieid2idx[movie_id_val]]).reshape([1, 200])
            probs_user_favorite_similarity = tf.matmul(probs_movie_embeddings, tf.transpose(users_matrics))
            favorite_user_id = np.argsort(probs_user_favorite_similarity.eval())[0][-top_k:]
    
            print("您看的电影是:{}".format(movies_orig[movieid2idx[movie_id_val]]))
    
            print("喜欢看这个电影的人是:{}".format(users_orig[favorite_user_id - 1]))
            probs_users_embeddings = (users_matrics[favorite_user_id - 1]).reshape([-1, 200])
            probs_similarity = tf.matmul(probs_users_embeddings, tf.transpose(movie_matrics))
            sim = (probs_similarity.eval())
            p = np.argmax(sim, 1)
            print("喜欢看这个电影的人还喜欢看:")
            results = set()
            while len(results) != 5:
                c = p[random.randrange(top_k)]
                results.add(c)
            for val in (results):
                print(val)
                print(movies_orig[val])
            return results

    基于 CNN 的电影推荐系统不足

    基于上述方法所带来的不足:

    1. 由于一个新的用户在刚开始的时候并没有任何行为记录,所以系统会出现冷启动的问题;

    2. 由于神经网络是一个黑盒子过程,我们并不清楚在反向传播的过程中的具体细节,也不知道每一个卷积层抽取的特征细节,所以此算法缺乏一定的可解释性;

    3. 一般来说,在工业界,用户的数据量是海量的,而卷积神经网络又要耗费大量的计算资源,所以进行集群计算是非常重要的。但是由于本课程所做实验环境有限,还是在单机上运行,所以后期可以考虑在服务器集群上全量跑数据,这样获得的结果也更准确。

    总结

    上面通过 Github 上一个开源的项目,梳理了 CNN 在文本推荐上的应用,并通过模型训练调参,给出一般的模型调参思路,最后建议大家自己把源码下载下来跑跑模型,效果更好。

    参考文献

    1. 推荐系统

    2. 推荐系统实践,p50-60,p120-130,项亮。

  • 相关阅读:
    合并多行查询数据到一行:使用自连接、FOR XML PATH('')、STUFF或REPLACE函数
    行转列和列转行
    递归删除指定目录下所有文件及子目录
    有两个字符串数组a和b,寻找相同元素 (a和b都比较大)
    在Sql Server 数据库中找到含某个词的所有字段
    一段JavaScript程序
    事实表计数比事实表数据量大
    Reporting Service报表设计常见技巧及问题解法
    使用WebService的方式调用部署在服务器的Wcf服务
    LINQ To Entities如何实现查询 select * from tableA where id in (1,2,3,4) ?
  • 原文地址:https://www.cnblogs.com/chen8023miss/p/11977263.html
Copyright © 2011-2022 走看看