经过利用keras以及一些自定义函数进行数据加强, CTPN进行文字定位,CRNN进行文字识别以及Flask Web实现银行卡号码识别
Github地址html
因为我并非机器学习方向,完成此项目只是学校课程须要
因此文章可能只是如何开始并完成这个项目,至于深层次的原理,推荐两篇中文博文python
【OCR技术系列之五】天然场景文本检测技术综述(CTPN, SegLink, EAST)
【OCR技术系列之七】端到端不定长文字识别CRNN算法详解linux
硬件设备以及部分驱动和依赖以下:
Ubuntu18.04 + CUDA 8.0.61 + GeForce GTX 960M + NVIDIA Driver 430.14 + Python3.6 + Tensorflow-gpugit
NVIDIA 430.14驱动下载
CUDA 8.0下载github
安装完成后,能够经过下面命令在你的设备中检查算法
克隆源代码,并生成Python3虚拟环境浏览器
git clone https://github.com/bay1/card-crnn-ctpn.git python3 -m virtualenv venv source venv/bin/activate # 激活虚拟环境 pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple some-package # 安装项目依赖,指定清华源
项目中用到了warpctc-pytorch,须要咱们手动安装
注意这里的命令须要在Python虚拟环境中执行bash
git clone https://github.com/SeanNaren/warp-ctc.git cd warp-ctc mkdir build; cd build cmake .. make
你可能会遇到以下错误,这是由于你的gcc版本太高,须要低于5.0版本dom
/usr/local/cuda-8.0/include/host_config.h:119:2: error: #error -- unsupported GNU version! gcc versions later than 5 are not supported! #error -- unsupported GNU version! gcc versions later than 5 are not supported! ^~~~~
若是你系统中有多个gcc版本,你能够执行下面的命令指定"gcc"命令连接的具体指令
好比我指定我系统中存在的另外一个gcc版本: gcc-4.9机器学习
sudo rm /usr/bin/gcc sudo ln -s /usr/bin/gcc-4.9 /usr/bin/gcc
你也可能会遇到以下错误
/usr/bin/ld: CMakeFiles/test_gpu.dir/tests/test_gpu_generated_test_gpu.cu.o: relocation R_X86_64_32S against `.bss' can not be used when making a PIE object; recompile with -fPIC /usr/bin/ld: 最后的链结失败: 输出不可表示的节 collect2: error: ld returned 1 exit status CMakeFiles/test_gpu.dir/build.make:98: recipe for target 'test_gpu' failed make[2]: *** [test_gpu] Error 1 CMakeFiles/Makefile2:146: recipe for target 'CMakeFiles/test_gpu.dir/all' failed make[1]: *** [CMakeFiles/test_gpu.dir/all] Error 2 Makefile:129: recipe for target 'all' failed make: *** [all] Error 2
根据报错内容,咱们能够直接修改目录下的CMakeCache.txt
CMAKE_CXX_FLAGS:STRING=-fPIC # 39 行
而后咱们根据warp-ctc说明,执行下面命令
cd ../pytorch_binding python setup.py install
此时你可能会遇到以下错误
src/binding.cpp:6:10: fatal error: torch/extension.h: 没有那个文件或目录 #include <torch/extension.h> ^~~~~~~~~~~~~~~~~~~ compilation terminated. error: command 'x86_64-linux-gnu-gcc' failed with exit status 1
根据前人的经验,https://github.com/SeanNaren/warp-ctc/issues/101
咱们直接切换之前的版本便可
git checkout ac045b6
文本位置定位,我直接借用的此项目以及其训练的模型text-detection-ctpn
其实做者训练的模型效果不算很好,不过我手里并无模型数据,本身训练仍是须要下载这位做者的训练数据
因此干脆直接使用做者训练好的模型数据便可,能够从下面两种方式下载做者的ckpt file
将此文件夹放到ctpn/,而后执行以下命令
cd ctpn/utils/bbox chmod +x make.sh ./make.sh
PS: 若是你想要本身训练CTPN模型数据,你能够执行ctpn文件夹下的train.py文件
其中text-detection-ctpn只是针对文本进行位置的定位
而咱们针对银行卡号进行具体定位,因此仍是须要进行一些自定义的处理
个人思路是对选取出来的全部Box进行长宽的计算,而后根据长宽的比例来进行截取卡号区域
固然这种效果的前提是,咱们可以将卡号部分检测出来,不过这样实现的效果仍是至关不错的
def get_wh(box_coordinate): """ 计算box坐标宽高 box格式: [xmin, ymin, xmax, ymin, xmax, ymax, xmin, ymax, score] """ xmin = box_coordinate[0] xmax = box_coordinate[2] ymin = box_coordinate[1] ymax = box_coordinate[5] width = xmax - xmin height = ymax - ymin return width, height
此时须要回到项目根目录,首先对我获得的图片数据进行简单的处理
即将原始图片数据,即data/images的图片,转化为生成lmdb须要的形式
python crnn/handle_images.py # 后续优化后,在此命令前须要执行数据加强
图片路径以及正确标签文本:
处理后的图片新路径:
而后咱们就须要将咱们手中的数据转换成train所须要的lmdb文件
执行下面命令
python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/train_images -l crnn/to_lmdb/train.txt -s crnn/to_lmdb/train_lmdb/ python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/test_images -l crnn/to_lmdb/test.txt -s crnn/to_lmdb/test_lmdb/
生成的lmdb文件目录:
这时候咱们就能够具体训练咱们手中的数据
python crnn/train.py
模型保存目录: crnn/expr
这个项目有各类自定义的数据目录,以及训练模型的参数
若是你想修改这些参数或者数据路径,你能够到下面两个文件中
其中crnn训练模型的参数详解
--random_sample 是否使用随机采样器对数据集进行采样, action='store_true' --keep_ratio 设置图片保持横纵比缩放, action='store_true' --adam 使用adma优化器, action='store_true' --adadelta 使用adadelta优化器, action='store_true' --saveInterval 设置多少次迭代保存一次模型 --valInterval 设置多少次迭代验证一次 --n_test_disp 每次验证显示的个数 --displayInterval 设置多少次迭代显示一次 --experiment 模型保存目录 --alphabet 设置检测分类 --crnn 选择预训练模型 --beta1 --lr 学习率 --niter 训练回合数 --nh LSTM隐藏层数 --imgW 图片宽度 --imgH 图片高度, default=32 --batchSize 设置batchSize大小, default=64 --workers 工做核数, default=2 --trainroot 训练集路径 --valroot 验证集路径 --cuda 使用GPU, action='store_true'
训练CRNN完成以后,crnn测试加载模型路径默认是: crnn/trained_models/crnn_Rec_done.pth
即咱们须要把咱们训练好的模型重命名放到这个目录
而后咱们就能够在项目根目录执行以下命令
python run.py
浏览器打开连接:http://127.0.0.1:5000
这是本地迭代了300次的效果,有待继续改进
测试集图片, 识别其中的一张银行卡号
百度百科-数据加强
深度学习与计算机视觉(PB-02)-数据加强
数据加强模块,将数据集中的每一张图片使用数据加强方式拓展为n张图片(n,设置crnn/params.py中的total_num)
这样作的好处还能够为以后的图像识别训练提供充足的数据样本
而咱们要作的目的是识别银行卡卡号,对于现有数据和实际识别中卡号的样式
我的认为,咱们须要作的数据加强方式不该该包括角度旋转,水平翻转,大幅度平移
同时银行卡较不容易识别的是带有复杂背景图的卡面,因此杂色,噪点的增长是必要的
因此在keras的基础上咱们自定义一些其余函数
完成上述设置以后,在handle_images.py以前执行下面的命令
python crnn/augmentation.py
生成的数据文件夹以下,理论上会生成86720项(猜想是文件名重复致使)
data文件夹中的测试图片,几乎可以识别全部的银行卡号,预估测试正确率达85%+
训练过程当中170屡次迭代的acc,最高升至0.77
后来发现了,google提供的一种免费线上训练网站,GPU环境是K80配置,速度比本地快多了
并且能够省去不少配置环境的麻烦,这种线上环境的cuda版本是10.0,仍是须要进行稍微调整
首先咱们在colab中添加以下的单元格
!git clone https://github.com/bay1/card-crnn-ctpn.git %cd /content/card-crnn-ctpn !pip install -r requirements.txt !pip install --upgrade tensorflow-gpu !pip install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl !cp /content/train.py /content/card-crnn-ctpn/crnn !python crnn/augmentation.py !python crnn/handle_images.py !python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/train_images -l crnn/to_lmdb/train.txt -s crnn/to_lmdb/train_lmdb/ !python crnn/to_lmdb/to_lmdb.py -i crnn/to_lmdb/test_images -l crnn/to_lmdb/test.txt -s crnn/to_lmdb/test_lmdb/ !python /content/card-crnn-ctpn/crnn/train.py
你可能注意到了这里升级了tensorflow-gpu和tourch版本以适配线上环境的硬件
pytorch.org在这里你能够找到相应的tourch对应的cuda版本安装方法
而后手动下载 card-crnn-ctpn/crnn/train.py 文件
因为tourch1.0版本直接支持CTCLoss,因此咱们就不须要安装warpctc_pytorch,修改train.py文件以下
即注释warpctc引用的CTCLoss,直接改成torch中的CTCLoss
10 # from warpctc_pytorch import CTCLoss 158 # criterion = CTCLoss() 159 criterion = torch.nn.CTCLoss()
此时若是你想修改params.py文件,也能够像train.py同样修改
修改完成后上传到目录,在单元格代码中添加相应的替换命令便可
最后执行代码执行程序,享受速度