基于短语的统计机器翻(PBMT) 开源工具 :Moses

如何运行Moses

 

1. Moses的历史c++

  Moses是Pharaoh的升级版本,增长了许多功能。它是一个基于短语的统计机器翻译系统,整个系统用C++语言写成,从训练到解码彻底开放源代码,能够运行在Linux平台和Windows平台。它有两大特色:算法

  1.1 Factored Translation Modelubuntu

   在Factored Translation Model中,一个单词不单单是一个符号(token),而是一个包含多个因子的向量,例如表面词形、词干、词性等。这些因子共同做用来刻画一个单词。app

  1.2 Confusion Network Decoding框架

   当前的机器翻译系统可以接受的输入通常是纯文本形式的一串单词(一句话或者一篇文章),而如今将机器翻译系统做为一个大的信息处理系统的组成部分的需求日益增加,它的输入可能再也不是纯文本的形式,而是其它模块的输出结果,例如命名实体(NE)识别的结果,或者语音识别的结果。这样的输入再也不是单一的,而是可能含有错误的、多种可能性的输入。Confusion Network Decoding容许这种多可能性的输入,最终选择最优译文。svn

2. Moses基本框架工具

  Moses核心框架还是Philipp Koehn的基于短语的SMT框架。平台采用GIZA++进行翻译模型的训练,SRILM进行语言模型的训练,Moses进行生成模型的训练及解码,mteval对实验结果进行BLEU评分。测试

  2.1 总调用部分:moses-cmd/src/Main.cppui

  2.2 解码器初始入口部分spa

   i. 参数设置:

    moses/src/Parameter.cpp

   ii. 模型数据加载:

    moses/src/StaticData.cpp

  2.3 句子翻译处理部分

   i. 解码器算法实现总调度:

    Manager.cpp

   ii. 翻译选项处理:

    TranslationOptionCollection.cpp

   iii. 部分翻译处理:

    Hypothesis.cpp

   iv. 包含翻译假设,实现剪枝:

    HypothesisStack.cpp

  2.4 结果输出:moses-cmd/src/Main.cpp

   i. 输出最佳翻译结果:

    moses-cmd/src/IOStream::OutputBestHypo

   ii. n-best生成及输出:

    n-best lists generated in Manager.cpp, output in IOStream.cpp

3. Moses测试平台搭建

  3.1 安装SRILM

   参考http://www.leexiang.com/how-to-configure-srilm-on-ubuntu

   补充:语言模型训练工具除了SRILM可选外,还可使用IRSTLM

  3.2 安装GIZA++

   参考http://www.leexiang.com/gizapp-report

  3.3 安装Moses

   3.3.1 安装和编译

   在编辑Moses以前必定要安装全部的依赖包,不然没法编译经过,请安装如下软件包:

   $sudo apt-get install autoconf automake texinfo zlib1g zlib1g-dev zlib-bin zlibc libtool libboost-all-dev libxmlrpc-c3-dev build-essential

   推荐经过Subversion下载并管理Moses:

   svn co https://mosesdecoder.svn.sourceforge.net/svnroot/mosesdecoder/trunk moses

   进入moses,运行./regenerate-makefiles.sh

   注:若是gcc 是4.4版本,可能会出现错误,须要修改moses/src,moses-cmd/src,misc三个文件夹中的Makefile.am文件,在AM_CPPFLAGS=…..后面加上-std=c++0x,并修改configure文件中3870行,将MY_ARCH=${with_srilm}/sbin/machine-type 改成MY_ARCH=“i686-gcc4“,从新编译一次。

   ./configure –with-srilm=MT/srilm (SRILM的绝对路径)

   再运行命令make -j 4

   则Moses的解码器编译成功。

   3.3.2 安装Moses训练脚本:

   进入moses/scripts目录,查看Makefile文件。该文件须要指定两个目录TARGETDIR和BINDIR。其中,TARGETDIR会存放编译后的文件,BINDIR须要事先存放3个可执行程序:GIZA++, snt2cooc.out,mkcls(Makefile会调用check-dependencies.pl以检查是否指定目录和包含可执行程序)。

   咱们在scripts目录下新建两个目录:target和bin,将以前编译好的GIZA++、snt2cooc.out和mkcls拷贝到bin目录 下,并将Makefile文件的第13-14行修改成:

   TARGETDIR=/home/user/MT/moses/scripts/target

   BINDIR=/home/user/MT/moses/scripts/bin

   在scripts目录下输入命令:

   make release

   注:运行命令后,可能出现错误:/bin/sh: ./check-dependencies.pl: not found,此时须要将scripts/Makefile文件中的@./check-dependencies.pl修改成perl check-dependencies.pl,经过moses邮件列表发现的,至于缘由我暂时也不知道,若是您明白请告诉我,谢谢

   编译完成后,会在TARGETDIR 目录下建立一个scripts-timestamp目录,这个目录中存放编译后的脚本。编译后的文件名写入released-files。编译后的脚本路径:SCRIPTS_ROOTDIR=/home/user/MT/moses/scripts/target/scripts- 20100105-1600

   至此,Moses安装成功。

   使用时须要声明环境:

   export SCRIPTS_ROOTDIR=/home/user/MT/moses/scripts/target/scripts-YYYYMMDD-HHMM

   3.3.3 安装Moses附加脚本:

   (1) 下载相关脚本

    从http://www.statmt.org/wmt07/scripts.tgz下载scripts.tgz并解压:

    tar xzf scripts.tgz

    这些脚本包括:

    Tokenizer scripts/tokenizer.perl

    Lowercaser scripts/lowercase.perl

    SGML-Wrapper scripts/wrap-xml.perl

   (2) 下载中科院计算所ICTCLAS中文分词工具

    下载地址:http://www.ictclas.org

   (3) 准备数据

    中英双语平行语料库:train.chn和train.eng(测试集);dev.chn和ref0~3(开发集);

    要求已完成英文token及英文句首字母大写转小写。

    若是没有进行预处理,可参考下面:

    英文切分:scripts/tokenizer.perl -l en < data/english > data/train.seg.eng.upper

    中文切分:使用ICTCLAS实现中文语料分词,得到切分语料库train.seg.chn

    大小写转换:scripts/lowercase.perl < data/ train.seg.eng.upper > data/train.seg.eng

   过滤长句:bin/moses-scripts/scripts-YYYYMMDD-HHMM/training/clean-corpus- n.perl data/train.seg chn eng data/train 1 100

4. 构建语言模型

  此处训练一个5元的语言模型,用kndiscount平滑方法,命令以下:

  ./ngram-count -text train.chn -lm train.chn.gz -order 5 -unk -interpolate -kndiscount -tolower

  参数说明:

   -text:要训练的文本,一行一句

   -lm:输出文件名

   -order n:语言模型的元数

   -unk:未登陆词,默认是移除未登陆词

   -kndiscount:平滑

   -interpolate:插值

  至此,语言模型训练完成。

5. 训练模型

  运行:/home/user/MT/moses/scripts/target/scripts-20100105-1600/training/train-model.perl (旧版是train-factored-phrase-model.perl)

  -scripts-root-dir /home/user/moses/scripts/target/scripts-20100105-1600

  -root-dir /home/user/MT/moses/data/

  -corpus /home/user/MT/moses/data/train -e eng -f chn

  -max-phrase-length 10

  -alignment-factors grow-diag-final-and

  -reordering msd-bidirectional-fe

  -lm 0:5:/home/user/moses/data/train.chn.gz

  程序会在/home/user/MT/moses/data下创建corpus、giza.eng-chn、giza.chn-eng和model四个目录。

  在model目录里,存放着最终结果:配置文件moses.ini、短语表phrase-table.0-0.gz和重排序表reordering- table.msd-fe.0.5.0-0.gz。

  这一步耗时较长,慢慢等待,期间能够上个厕所……..

  至此,短语抽取完成。

6. 最小错误率训练

  执行最小错误率训练时,必需要采用Moses规定的文件格式。输入文件是纯文本文件,一行一句,没有任何标记。参考译文文件也是相同格式。

  须要注意的是,Moses规定每一个参考译文单独存放在一个文件中。

  这里咱们使用的参考译文有四个,即ref0~3,运行如下命令:

  /home/user/MT/moses/scripts/target/scripts-20100105-1600/training/mert-moses-new.pl \

  /home/user/MT/moses/data/dev.eng \

  /home/user/MT/moses/data/ref \

  /home/user/MT/moses/moses-cmd/src/moses \

  /home/user/MT/moses/data/model/moses.ini \

  -working-dir /home/MT/moses/data/mert \

  -root-dir /home/user/MT/moses/scripts/target/scripts-20100105-1600 \

  -nbest 200 \

  训练完成,生成一系列文件。

  tail -n 1 run*.cmert.log查看全部迭代的BLEU结果,选择最好的runXX.moses.ini

  用生成的最好的配置文件覆盖moses.ini,输入

cp runXX.moses.ini moses.ini

  最终生成moses.ini文件,至此,最小错误率训练完成。

7. 解码

  echo "I have a book ." | moses –config moses-tuned.ini

  输出结果含有以下一行:

  BEST TRANSLATION: 我 有 一本 书?

  说明翻译成功。

相关文章
相关标签/搜索