本文做者:在线实验室javascript
数据准备html
数据介绍与下载java
咱们以 MovieLens 百万数据集(ml-1m)为例进行介绍。ml-1m 数据集包含了 6,000 位用户对 4,000 部电影的 1,000,000 条评价(评分范围 1~5 分,均为整数),由 GroupLens Research 实验室搜集整理。web
Paddle在API中提供了自动加载数据的模块。数据模块为 paddle.dataset.movielens
缓存
import paddle movie_info = paddle.dataset.movielens.movie_info() print movie_info.values()[0] # Run this block to show dataset's documentation # help(paddle.dataset.movielens)
在原始数据中包含电影的特征数据,用户的特征数据,和用户对电影的评分。网络
例如,其中某一个电影特征为:app
movie_info = paddle.dataset.movielens.movie_info() print movie_info.values()[0] <MovieInfo id(1), title(Toy Story ), categories(['Animation', "Children's", 'Comedy'])>
这表示,电影的id是1,标题是《Toy Story》,该电影被分为到三个类别中。这三个类别是动画,儿童,喜剧。ide
user_info = paddle.dataset.movielens.user_info() print user_info.values()[0] <UserInfo id(1), gender(F), age(1), job(10)>
这表示,该用户ID是1,女性,年龄比18岁还年轻。职业ID是10。函数
其中,年龄使用下列分布oop
职业是从下面几种选项里面选则得出:
而对于每一条训练/测试数据,均为 <用户特征> + <电影特征> + 评分。
例如,咱们得到第一条训练数据:
train_set_creator = paddle.dataset.movielens.train() train_sample = next(train_set_creator()) uid = train_sample[0] mov_id = train_sample[len(user_info[uid].value())] print "User %s rates Movie %s with Score %s"%(user_info[uid], movie_info[mov_id], train_sample[-1]) User <UserInfo id(1), gender(F), age(1), job(10)> rates Movie <MovieInfo id(1193), title(One Flew Over the Cuckoo's Nest ), categories(['Drama'])> with Score [5.0]
即用户1对电影1193的评价为5分。
模型配置说明
下面咱们开始根据输入数据的形式配置模型。首先引入所需的库函数以及定义全局变量。 - IS_SPARSE: embedding中是否使用稀疏更新 - PASS_NUM: epoch数量
from __future__ import print_function import math import sys import numpy as np import paddle import paddle.fluid as fluid import paddle.fluid.layers as layers import paddle.fluid.nets as nets IS_SPARSE = True BATCH_SIZE = 256 PASS_NUM = 20
而后为咱们的用户特征综合模型定义模型配置
def get_usr_combined_features(): """network definition for user part""" USR_DICT_SIZE = paddle.dataset.movielens.max_user_id() + 1 uid = layers.data(name='user_id', shape=[1], dtype='int64') usr_emb = layers.embedding( input=uid, dtype='float32', size=[USR_DICT_SIZE, 32], param_attr='user_table', is_sparse=IS_SPARSE) usr_fc = layers.fc(input=usr_emb, size=32) USR_GENDER_DICT_SIZE = 2 usr_gender_id = layers.data(name='gender_id', shape=[1], dtype='int64') usr_gender_emb = layers.embedding( input=usr_gender_id, size=[USR_GENDER_DICT_SIZE, 16], param_attr='gender_table', is_sparse=IS_SPARSE) usr_gender_fc = layers.fc(input=usr_gender_emb, size=16) USR_AGE_DICT_SIZE = len(paddle.dataset.movielens.age_table) usr_age_id = layers.data(name='age_id', shape=[1], dtype="int64") usr_age_emb = layers.embedding( input=usr_age_id, size=[USR_AGE_DICT_SIZE, 16], is_sparse=IS_SPARSE, param_attr='age_table') usr_age_fc = layers.fc(input=usr_age_emb, size=16) USR_JOB_DICT_SIZE = paddle.dataset.movielens.max_job_id() + 1 usr_job_id = layers.data(name='job_id', shape=[1], dtype="int64") usr_job_emb = layers.embedding( input=usr_job_id, size=[USR_JOB_DICT_SIZE, 16], param_attr='job_table', is_sparse=IS_SPARSE) usr_job_fc = layers.fc(input=usr_job_emb, size=16) concat_embed = layers.concat( input=[usr_fc, usr_gender_fc, usr_age_fc, usr_job_fc], axis=1) usr_combined_features = layers.fc(input=concat_embed, size=200, act="tanh") return usr_combined_features
如上述代码所示,对于每一个用户,咱们输入4维特征。其中包括user_id,gender_id,age_id,job_id。这几维特征均是简单的整数值。为了后续神经网络处理这些特征方便,咱们借鉴NLP中的语言模型,将这几维离散的整数值,变换成embedding取出。分别造成usr_emb, usr_gender_emb, usr_age_emb, usr_job_emb。
而后,咱们对于全部的用户特征,均输入到一个全链接层(fc)中。将全部特征融合为一个200维度的特征。
进而,咱们对每个电影特征作相似的变换,网络配置为:
def get_mov_combined_features(): """network definition for item(movie) part""" MOV_DICT_SIZE = paddle.dataset.movielens.max_movie_id() + 1 mov_id = layers.data(name='movie_id', shape=[1], dtype='int64') mov_emb = layers.embedding( input=mov_id, dtype='float32', size=[MOV_DICT_SIZE, 32], param_attr='movie_table', is_sparse=IS_SPARSE) mov_fc = layers.fc(input=mov_emb, size=32) CATEGORY_DICT_SIZE = len(paddle.dataset.movielens.movie_categories()) category_id = layers.data( name='category_id', shape=[1], dtype='int64', lod_level=1) mov_categories_emb = layers.embedding( input=category_id, size=[CATEGORY_DICT_SIZE, 32], is_sparse=IS_SPARSE) mov_categories_hidden = layers.sequence_pool( input=mov_categories_emb, pool_type="sum") MOV_TITLE_DICT_SIZE = len(paddle.dataset.movielens.get_movie_title_dict()) mov_title_id = layers.data( name='movie_title', shape=[1], dtype='int64', lod_level=1) mov_title_emb = layers.embedding( input=mov_title_id, size=[MOV_TITLE_DICT_SIZE, 32], is_sparse=IS_SPARSE) mov_title_conv = nets.sequence_conv_pool( input=mov_title_emb, num_filters=32, filter_size=3, act="tanh", pool_type="sum") concat_embed = layers.concat( input=[mov_fc, mov_categories_hidden, mov_title_conv], axis=1) mov_combined_features = layers.fc(input=concat_embed, size=200, act="tanh") return mov_combined_features
电影标题名称(title)是一个序列的整数,整数表明的是这个词在索引序列中的下标。这个序列会被送入 sequence_conv_pool
层,这个层会在时间维度上使用卷积和池化。由于如此,因此输出会是固定长度,尽管输入的序列长度各不相同。
最后,咱们定义一个inference_program
来使用余弦类似度计算用户特征与电影特征的类似性。
def inference_program(): """the combined network""" usr_combined_features = get_usr_combined_features() mov_combined_features = get_mov_combined_features() inference = layers.cos_sim(X=usr_combined_features, Y=mov_combined_features) scale_infer = layers.scale(x=inference, scale=5.0) return scale_infer
进而,咱们定义一个train_program
来使用inference_program
计算出的结果,在标记数据的帮助下来计算偏差。咱们还定义了一个optimizer_func
来定义优化器。
def train_program(): """define the cost function""" scale_infer = inference_program() label = layers.data(name='score', shape=[1], dtype='float32') square_cost = layers.square_error_cost(input=scale_infer, label=label) avg_cost = layers.mean(square_cost) return [avg_cost, scale_infer] def optimizer_func(): return fluid.optimizer.SGD(learning_rate=0.2)
训练模型
定义训练环境
定义您的训练环境,能够指定训练是发生在CPU仍是GPU上。
定义数据提供器
下一步是为训练和测试定义数据提供器。提供器读入一个大小为 BATCH_SIZE
的数据。paddle.dataset.movielens.train
每次会在乱序化后提供一个大小为BATCH_SIZE
的数据,乱序化的大小为缓存大小buf_size
。
train_reader = paddle.batch( paddle.reader.shuffle( paddle.dataset.movielens.train(), buf_size=8192), batch_size=BATCH_SIZE) test_reader = paddle.batch( paddle.dataset.movielens.test(), batch_size=BATCH_SIZE)
构造训练过程(trainer)
咱们这里构造了一个训练过程,包括训练优化函数。
提供数据
feed_order
用来定义每条产生的数据和paddle.layer.data
之间的映射关系。好比,movielens.train
产生的第一列的数据对应的是user_id
这个特征。
feed_order = [ 'user_id', 'gender_id', 'age_id', 'job_id', 'movie_id', 'category_id', 'movie_title', 'score' ]
构建训练程序以及测试程序
分别构建训练程序和测试程序,并引入训练优化器。
main_program = fluid.default_main_program() star_program = fluid.default_startup_program() [avg_cost, scale_infer] = train_program() test_program = main_program.clone(for_test=True) sgd_optimizer = optimizer_func() sgd_optimizer.minimize(avg_cost) exe = fluid.Executor(place) def train_test(program, reader): count = 0 feed_var_list = [ program.global_block().var(var_name) for var_name in feed_order ] feeder_test = fluid.DataFeeder( feed_list=feed_var_list, place=place) test_exe = fluid.Executor(place) accumulated = 0 for test_data in reader(): avg_cost_np = test_exe.run(program=program, feed=feeder_test.feed(test_data), fetch_list=[avg_cost]) accumulated += avg_cost_np[0] count += 1 return accumulated / count
构建训练主循环并开始训练
咱们根据上面定义的训练循环数(PASS_NUM
)和一些别的参数,来进行训练循环,而且每次循环都进行一次测试,当测试结果足够好时退出训练并保存训练好的参数。
# Specify the directory path to save the parameters params_dirname = "recommender_system.inference.model" from paddle.utils.plot import Ploter train_prompt = "Train cost" test_prompt = "Test cost" plot_cost = Ploter(train_prompt, test_prompt) def train_loop(): feed_list = [ main_program.global_block().var(var_name) for var_name in feed_order ] feeder = fluid.DataFeeder(feed_list, place) exe.run(star_program) for pass_id in range(PASS_NUM): for batch_id, data in enumerate(train_reader()): # train a mini-batch outs = exe.run(program=main_program, feed=feeder.feed(data), fetch_list=[avg_cost]) out = np.array(outs[0]) # get test avg_cost test_avg_cost = train_test(test_program, test_reader) plot_cost.append(train_prompt, batch_id, outs[0]) plot_cost.append(test_prompt, batch_id, test_avg_cost) plot_cost.plot() if batch_id == 20: if params_dirname is not None: fluid.io.save_inference_model(params_dirname, [ "user_id", "gender_id", "age_id", "job_id", "movie_id", "category_id", "movie_title" ], [scale_infer], exe) return print('EpochID {0}, BatchID {1}, Test Loss {2:0.2}'.format( pass_id + 1, batch_id + 1, float(test_avg_cost))) if math.isnan(float(out[0])): sys.exit("got NaN loss, training failed.")
开始训练
train_loop()
应用模型
生成测试数据
使用 create_lod_tensor(data, lod, place) 的API来生成细节层次的张量。data
是一个序列,每一个元素是一个索引号的序列。lod
是细节层次的信息,对应于data
。好比,data = [[10, 2, 3], [2, 3]] 意味着它包含两个序列,长度分别是3和2。因而相应地 lod = [[3, 2]],它代表其包含一层细节信息,意味着 data
有两个序列,长度分别是3和2。
在这个预测例子中,咱们试着预测用户ID为1的用户对于电影'Hunchback of Notre Dame'的评分
infer_movie_id = 783 infer_movie_name = paddle.dataset.movielens.movie_info()[infer_movie_id].title user_id = fluid.create_lod_tensor([[1]], [[1]], place) gender_id = fluid.create_lod_tensor([[1]], [[1]], place) age_id = fluid.create_lod_tensor([[0]], [[1]], place) job_id = fluid.create_lod_tensor([[10]], [[1]], place) movie_id = fluid.create_lod_tensor([[783]], [[1]], place) # Hunchback of Notre Dame category_id = fluid.create_lod_tensor([[10, 8, 9]], [[3]], place) # Animation, Children's, Musical movie_title = fluid.create_lod_tensor([[1069, 4140, 2923, 710, 988]], [[5]], place) # 'hunchback','of','notre','dame','the'
构建预测过程并测试
与训练过程相似,咱们须要构建一个预测过程。其中, params_dirname
是以前用来存放训练过程当中的各个参数的地址。
place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace() exe = fluid.Executor(place) inference_scope = fluid.core.Scope()
测试
如今咱们能够进行预测了。咱们要提供的feed_order
应该和训练过程一致。
总结
本章介绍了传统的个性化推荐系统方法和YouTube的深度神经网络个性化推荐系统,并以电影推荐为例,使用PaddlePaddle训练了一个个性化推荐神经网络模型。个性化推荐系统几乎涵盖了电商系统、社交网络、广告推荐、搜索引擎等领域的方方面面,而在图像处理、天然语言处理等领域已经发挥重要做用的深度学习技术,也将会在个性化推荐系统领域大放异彩。
参考文献
本教程 由 PaddlePaddle 创做,采用 知识共享 署名-相同方式共享 4.0 国际 许可协议进行许可。