深度学习算法与计算机硬件性能的发展,使研究人员和企业在图像识别、语音识别、推荐引擎和机器翻译等领域取得了巨大的进步。六年前,视觉模式识别领域取得了第一个超凡的成果。两年前,Google大脑团队开发了TensorFlow,并将深度学习巧妙的应用于各个领域。现在,TensorFlow则超越了很多用于深度学习的复杂工具。
利用TensorFlow,你可以获得具有强大能力的复杂功能,其强大的基石来自于TensorFlow的易用性。
在这个由两部分组成的系列中,我将讲述如何快速的创建一个应用于图像识别的卷积神经网络。TensorFlow计算步骤是并行的,可对其配置进行逐帧视频分析,也可对其扩展进行时间感知视频分析。
本系列文章直接切入关键的部分,只需要对命令行和Python有最基本的了解,就可以在家快速地创建一些令你激动不已的项目。本文不会深入探讨TensorFlow的工作原理,如果你想了解更多,我会提供大量额外的参考资料。本系列所有的库和工具都是免费开源的软件。
工作原理
本教程旨在把一个事先被放到训练过的类别里的图片,通过运行一个命令以识别该图像具体属于哪个类别。步骤如下图所示:
• 标注:管理训练数据。例如花卉,将雏菊的图像放到“雏菊”目录下,将玫瑰放到“玫瑰”目录下等等,将尽可能多的不同种类的花朵按照类别不同放在不同的目录下。如果我们不标注“蕨类植物”,那么分类器永远也不会返回“蕨类植物”。这需要每个类型的很多样本,因此这一步很重要,并且很耗时。(本文使用预先标记好的数据以提高效率)
• 训练:将标记好的数据(图像)提供给模型。有一个工具将随机抓取一批图像,使用模型猜测每种花的类型,测试猜测的准确性,重复执行,直到使用了大部分训练数据为止。最后一批未被使用的图像用于计算该训练模型的准确性。
• 分类:在新的图像上使用模型。例如,输入:IMG207.JPG,输出:雏菊。这个步骤快速简单,且衡量的代价小。
训练和分类
本教程将训练一个用于识别不同类型花朵的图像分类器。深度学习需要大量的训练数据,因此,我们需要大量已分类的花朵图像。值得庆幸的是,另外一个模型在图像收集和分类这方面做得非常出色,所以我们使用这个带有脚本的已分类数据集,它有现成且完全训练过的图像分类模型,重新训练模型的最后几层以达到我们想要的结果,这种技术称为迁移学习。
我们重新训练的模型是Inception v3,最初是在2015年12月发表的论文“重新思考计算机视觉的Inception架构”中有做论述。
直到我们做了这个约20分钟的训练,Inception才知道如何识别雏菊和郁金香,这就是深度学习中的“学习”部分。
安装
首先,在所选的平台上安装Docker。
在很多TensorFlow教程中最先且唯一依赖的就是Docker(应该表明这是个合理的开始)。我也更喜欢这种安装TensorFlow的方法,因为不需要安装一系列的依赖项,这可以保持主机(笔记本或桌面)比较干净。
Bootstrap TensorFlow
安装Docker后,我们准备启动一个训练和分类的TensorFlow容器。在硬盘上创建一个2GB空闲空间的工作目录,创建一个名为local的子目录,并记录完整路径。
docker run -v /path/to/local:/notebooks/local --rm -it --name tensorflow
tensorflow/tensorflow:nightly /bin/bash
下面是命令解析:
-v /path/to/local:/notebooks/local将刚创建的local目录挂载到容器中适当的位置。如果使用RHEL、Fedora或其他支持SELinux的系统,添加:Z允许容器访问目录。
--rm 退出时令docker删除容器
-it 连接输入输出,实现交互。
--name tensorflow将容器命名为tensorflow,而不是sneaky_chowderhead或任何Docker定义的随机名字。
tensorflow/tensorflow:nightly从Docker Hub (公共图像存储库)运行tensorflow/tensorflow的nightly 图像,而不是最新的图像(默认为最近建立/可用图像)。使用nightly图像而不是latest图像,是因为(在写入时)latest包含的一个bug会破坏TensorBoard,这是我们稍后需要的一个数据可视化工具。
/bin/bash指定运行Bash shell,而不运行系统默认命令。
训练模型
在容器中运行下述命令,对训练数据进行下载和完整性检查。
curl -O http://download.tensorflow.org/example_images/flower_photos.tgz
echo 'db6b71d5d3afff90302ee17fd1fefc11d57f243f flower_photos.tgz' | sha1sum -c
如果没有看到“flower_photos.tgz”信息:说明文件不正确。如果上诉curl 或sha1sum步骤失败,请手动下载训练数据包并解压(SHA-1 校验码:db6b71d5d3afff90302ee17fd1fefc11d57f243f)到本地主机的local目录下。
现在把训练数据放好,然后对再训练脚本进行下载和完整性检查。
mv flower_photos.tgz local/
cd local
curl -O https://raw.githubusercontent.com/tensorflow/tensorflow/10cf65b48e1b2f16eaa82
6d2793cb67207a085d0/tensorflow/examples/image_retraining/retrain.py
echo 'a74361beb4f763dc2d0101cfe87b672ceae6e2f5 retrain.py' | sha1sum -c
确认retrain.py有正确的内容,你应该看到retrain.py: OK.。
最后,开始学习!运行再训练脚本。
python retrain.py --image_dir flower_photos --output_graph output_graph.pb
--output_labels output_labels.txt
如果遇到如下错误,忽略它:
TypeError: not all arguments converted during string formatting Logged from file
tf_logging.py, line 82.
随着retrain.py 的运行,训练图像会自动的分批次训练、测试和验证数据集。
在输出上,我们希望有较高的“训练精度”和“验证精度”,以及较低的“交叉熵”。有关这些术语的详细解释,请参照“如何就新图片类型再训练Inception的最后一层”。在当前的硬件上的训练约30分钟。
请注意控制台输出的最后一行:
INFO:tensorflow:Final test accuracy = 89.1% (N=340)
这说明我们已经得到了一个模型:给定一张图像,10次中有9次可正确猜出是五种花朵类型中的哪一种。由于提供给训练过程的随机数不同,分类的精确度也会有所不同。
分类
再添加一个小脚本,就可以将新的花朵图像添加到模型中,并输出测试结果。这就是图像分类。
将下述脚本命名为 classify.py保存在本地local目录:
import tensorflow as tf, sys
image_path = sys.argv[1]
graph_path = 'output_graph.pb'
labels_path = 'output_labels.txt'
# Read in the image_data
image_data = tf.gfile.FastGFile(image_path, 'rb').read()
# Loads label file, strips off carriage return
label_lines = [line.rstrip() for line
in tf.gfile.GFile(labels_path)]
# Unpersists graph from file
with tf.gfile.FastGFile(graph_path, 'rb') as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
_ = tf.import_graph_def(graph_def, name='')
# Feed the image_data as input to the graph and get first prediction
with tf.Session() as sess:
softmax_tensor = sess.graph.get_tensor_by_name('final_result:0')
predictions = sess.run(softmax_tensor,
{'DecodeJpeg/contents:0': image_data})
# Sort to show labels of first prediction in order of confidence
top_k = predictions[0].argsort()[-len(predictions[0]):][::-1]
for node_id in top_k:
human_string = label_lines[node_id]
score = predictions[0][node_id]
print('%s (score = %.5f)' % (human_string, score))
为了测试你自己的图像,保存在local目录下并命名为test.jpg,运行(在容器内) python classify.py test.jpg。输出结果如下:
sunflowers (score = 0.78311)
daisy (score = 0.20722)
dandelion (score = 0.00605)
tulips (score = 0.00289)
roses (score = 0.00073)
数据说明了一切!模型确定图像中的花朵是向日葵的准确度为78.311%。数值越高表明匹配度越高。请注意,只能有一个匹配类型。多标签分类则需要另外一个不同的方法。
更多详细信息,请点击此处查阅classify.py的详细解释。
分类脚本中的图表加载代码已经被破坏,在这里,我用graph_def = tf.GraphDef()等作为图表加载代码。
利用零基础知识和一些代码,我们建了一个相当好的花卉图像分类器,在现有的笔记本电脑上每秒大约可以处理5张图像。
希望你能够继续关注本博客的系列博文。
以上为译文。
本文由北邮@爱可可-爱生活 老师推荐,阿里云云栖社区组织翻译。
文章原标题《Learn how to classify images with TensorFlow》,译者:Mags,审校:袁虎。
文章为简译,更为详细的内容,请查看原文