如何用深度学习框架PaddlePaddle实现智能春联

引言:  python

不知不觉春节假期立刻到来,在今年的春节话题中,不难发现,除了七大姑八大姨亲切问候这些常规话题,人工智能的踪影也是随处可见。AI在以全新的面貌向咱们展现值得期待的将来,好比今天,咱们能够用PaddlePaddle来尝试写副智能春联。过年贴春联已经成为一个传统习俗,而商场里可选的内容很少,不少人想亲自出马,惋惜又不大懂平仄对仗。能不能用人工智能帮咱们写春联呢?今年春节,百度、网易和央视网推出了“智能春联H5”,只要给出2-4个汉字,它就能据此“写”出一副很是具备观赏性的藏头春联。git

是什么让机器拥有对春联这项技能?经过智能春联H5,“刷脸”对春联只需几秒就能实现,而这背后是一系列“不可描述”的高深技术。视觉方面,主要应用了人脸检测、属性分析、人脸融合等技术,可对图片中的人脸进行检测,分析人脸对应的年龄、性别、颜值、微笑指数、是否佩戴眼镜等信息,并经过一个词语归纳人脸的特性;进而将图片中的人脸,与指定模板图中的人脸进行融合,获得新的图片。这些技术的难度在于,须要对各类角度的人脸进行检测,而且可以提取人脸的五官特征,以便可以生成与原始人脸类似,但也和模板人脸神似,且毫无违和感的新图片。github

其次是天然语言处理(NLP)方面,基于百度深度学习框架PaddlePaddle先进的神经网络机器翻译技术,能够将春联创做转化为“翻译”的过程,所不一样的是,翻译是在两种语言之间创建联系,而春联是在同一种语言中创建联系。固然,有些人可能会中招“彩蛋”,这些不是AI写的春联。好比你刷脸得出“戏精”这个关键词,就会得到一副“流量体质天生有戏,主角光环盖不住你”,横批“过足戏瘾”的春联,这么霸气十足但是由人工专门为你埋的梗哦!这样的春联出如今朋友圈里,毫无疑问,点赞人数会疯狂UpUpUp……算法

让咱们尝试体验一下吧!PaddlePaddle做为深度学习框架,不只支持深度学习算法的开发和调研,并且官方发布的模型库(https://github.com/PaddlePaddle/models)里面聚集了各类领先的图像分类、天然语言处理算法。经过这些算法,咱们能够很方便地实现各类好玩有趣的功能,好比:智能春联。网络

智能春联有各类玩法,能够根据用户输入的关键词,生成一副对联,实现定制化的专属春联,好比:用户输入“好运”,百度的人工智能春联生成程序就会创做出上下联为“一年好运满园锦绣,万众同心遍地辉煌”、横批为“春光满园”的春联;用户输入本身的名字,智能春联生成程序能够把本身的名字藏在生成的春联中,造成个性化很是强的春联,用来发送给本身的朋友;甚至用户不须要输入关键词,只须要拍一张照片,而后就能够根据这张照片生成图文并茂的春联。那这些功能都是怎么作到的呢?这里咱们给你们介绍一下如何用PaddlePaddle开发一套专属的智能春联生成系统。并发

1、咱们的系统须要先作到能理解图像的内容,好比:用户输入的究竟是什么?框架

这是一个典型图像分类的问题,图像分类是根据图像的语义信息对不一样类别图像进行区分,是计算机视觉中重要的基础问题,是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其余高层视觉任务的基础,在许多领域都有着普遍的应用。在深度学习时代,图像分类的准确率大幅度提高,PaddlePaddle在经典的数据集ImageNet上,开放了经常使用的模型,包括AlexNet、VGG、GoogLeNet、ResNet、Inception-v四、MobileNet、DPN(Dual Path Network)、SE-ResNeXt模型,同时也开源了训练的模型方便用户下载使用。基于这些图像分类算法,能够知道用户输入的类别,用相似的技术,还能够知道一些更具体的属性,好比:对于一张人脸的照片,能够知道性别、年龄这些属性。有了图片的这些特征和属性以后,咱们能够进行关键词扩展。好比:对于年轻的女性能够联想出一些关键词“风华绝代”、“秀丽”、“端庄”等等,对于小孩能够联想出关键词“活泼可爱”、“机智”、“勇敢”等等。学习

 

2、拿到这些关键词以后,接下来的任务是什么?ui

根据一个关键词,自动生成一副相关的春联。春联的生成过程能够分红2个步骤,第一个步骤是从关键词生成一副上联。而后再根据上联生成一副下联。那么如何实现这2个生成步骤呢?咱们发现这个任务跟机器翻译很类似,能够用相似的技术来实现。机器翻译(Machine Translation, MT)是用计算机来实现不一样语言之间翻译的技术。被翻译的语言一般称为源语言(Source Language),翻译成的结果语言称为目标语言(Target Language)。机器翻译即实现从源语言到目标语言转换的过程,是天然语言处理的重要研究领域之一。PaddlePaddle的模型库(PaddlePaddle/models)里面,提供了两个机器翻译算法的实现,一个是经典的基于LSTM的Seq2Seq模型,另外一个是最新的基于Attention的Transformer模型。 类比于机器翻译任务,能够把智能春联输入的关键词看做是机器翻译里的源语言句子,而后把根据关键词生成的上联,看做是机器翻译里的目标语言译文。相较于此前 Seq2Seq 模型中普遍使用的循环神经网络(Recurrent Neural Network, RNN),使用(Self)Attention 进行输入序列到输出序列的变换主要具备如下优点:计算复杂度更小、计算并发度更高、更容易学到长距离的依赖关系。咱们推荐使用翻译效果更好的Transformer模型,一般Transfomer能够获得比Seq2Seq更好的翻译效果。人工智能

图2. Transformer模型核心组件Multi-Head Attention

 def  scaled_dot_product_attention(q, k, v, attn_bias, d_key, dropout_rate):

         """

        Scaled  Dot-Product Attention

         """

        scaled_q  = layers.scale(x=q, scale=d_key**-0.5)

        product =  layers.matmul(x=scaled_q, y=k, transpose_y=True)

        if  attn_bias:

             product += attn_bias

        weights =  layers.softmax(product)

        if  dropout_rate:

             weights = layers.dropout(

                 weights,

                 dropout_prob=dropout_rate,

                 seed=ModelHyperParams.dropout_seed,

                 is_test=False)

        out =  layers.matmul(weights, v)

        return  out

图3. Scaled Dot-Product Attention的PaddlePaddle代码实现

 

3、选定了使用的生成算法以后,如何让机器可以学会写春联呢?

接下来就须要给系统准备训练数据了,所谓“熟读唐诗三百首”,对于机器来讲,须要见到大量的春联,才可以学会春联里用词和用字的规律。咱们能够去互联网上找到大量的春联数据,好比:“爆竹传吉语”“腊梅报新春”等等,而后把它们做为训练数据,一般须要几万条。有了这些数据后,咱们从上联里抽取出关键词,“爆竹”-> “爆竹传吉语”,训练一个从关键词到上联的生成模型;而后咱们再用“爆竹传吉语”“腊梅报新春”训练一个从上联到下联的生成模型。

准备好训练数据后,就能够启动Transformer模型的训练了,能够参考PaddlePaddle/models/neural_machine_translation/transformer里的命令。这个是英德翻译的例子,在作关键词到上联的生成时,须要把训练数据替换成“关键词”到对应“春联上联”的数据;在作上联到下联生成时,须要把训练数据替换成“春联上联”到对应“春联下联”的数据。

python -u train.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --train_file_pattern  gen_data/wmt16_ende_data_bpe/train.tok.clean.bpe.32000.en-de \

--token_delimiter ' ' \

   --use_token_batch True \

  --batch_size  4096 \

  --sort_type  pool \

  --pool_size  200000

训练完成后就能够获得一个关键词到上联的生成模型,还有一个从上联到下联的生成模型。注意生成过程,须要执行2次Transformer的预测过程,先输入一个关键词,生成上联;而后输入生成的上联,再生成一个下联。具体生成参考如下命令。

python -u infer.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --test_file_pattern  gen_data/wmt16_ende_data_bpe/newstest2016.tok.bpe.32000.en-de \

--token_delimiter ' ' \

  --batch_size 32  \

  model_path  trained_models/iter_100000.infer.model \

  beam_size 4 \

  max_out_len 255

根据以上PaddlePaddle官方模型库提供的一些技术,就能够实现一个好玩的智能春联系统了。固然还能够作不少有意思的扩展,好比,能够增长一些古诗词做为训练语料,使得生成的春联内容更为丰富;藏头春联,把关键词按字分开,经过Grid Beam Search的技术,保证生成的关键词会在春联特定的位置出现。

感兴趣的朋友,能够收集好春联训练语料,即可尝试实现一个好玩的智能春联系统了。

Github地址:

https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleNLP/neural_machine_translation/transformer/README_cn.md

相关文章
相关标签/搜索