https://paulswith.github.io/2018/02/24/%E8%BF%81%E7%A7%BB%E5%AD%A6%E4%B9%A0InceptionV3/ 上文记录了如何从一个别人训练好的模型, 切入我们自己的图片, 改为我们自己的模型.
本来以为移植到手机很简单, 但是不简单的是我的模型本身就是迁移学习别人的模型,有很多莫名其面的坑, 在CoreML经历了N个坑后,1点14分我搞掂了.
项目源码和转换源码已经上传到git.
https://github.com/Paulswith/machineLearningIntro/tree/master/classification_101
转化为mlmodel
说说转换为mlmodel的工具有两个:
- coremltools, 它目前只支持五种模型的转换, 不包括tensorflow:
- 若你跟我一样是tensorflow , 那么必须使用tfcoreml
https://github.com/tf-coreml 有安装方法.
转换Example: https://github.com/tf-coreml/tf-coreml/tree/master/examples
接着往下看:
是否是graph-pb?
如果你跟我一样, 训练的模型, 从tensorflow的代码保存下来的, 调用的:
|
|
它并不会保存出一个pb文件, 其中的.meta也需要其他方式转换似乎也可以, 我没有尝试过.
用这个方法, 你需要在上方代码的下面加两行,就可以继续:
|
|
pdtxt固化为pd
操作参考链接https://www.jianshu.com/p/091415b114e2
我是直接使用的bezel, 编译tensorflow源码后, 直接使用, 其中参数跟着填, 需要注意的是output_node:
导入化图
导入图和查看图的节点信息:
如果你的图不属于pb文件, 那么就会在导入图的时候报错的.
|
|
预处理节点
其实这一步个人不是很清楚很知道它做了什么,但确是不得不做的. 最后的大小看着也不像是”减包”
需要注意两点:
- input_node_names: 这里填写的节点从上方的代码可以打印看得到的, 实际在训练模型的时候, 我们直接喂图片的节点是在”import/DecodeJpeg/contents”, 而这里”必须是import/Mul”.
- output_node_names: 因为模型是剪切拼接的, 这跟tensorflow直接调用是一样的节点.
最后生成一个完整的pb文件.123456789101112input_node_names = ['import/Mul', 'BottleneckInputPlaceholder'] # 本来以为是import/DecodeJpeg/contents, 实际上是Mul(tfcoreml-git上说的)output_node_names = ['import/pool_3/_reshape','final_train_ops/softMax_last'] # 想要保存的节点 , 'final_train_ops/softMax_last'gdef = strip_unused_lib.strip_unused(input_graph_def = original_gdef,input_node_names = input_node_names,output_node_names = output_node_names,placeholder_type_enum = dtypes.float32.as_datatype_enum)with gfile.GFile(FROZEN_MODEL_FILE, "wb") as f:f.write(gdef.SerializeToString())
开始转换
-
input_tensor_shapes: 是placeholder 和 input节点, 方括号的第一个参数是batch大小,代表一张一张的喂给它. 字典里面这两个, 对应生成后的InceptionV3_input的两个属性.
-
output_tensor_names: 训练后得到的节点, 对应生成后的InceptionV3_output的两个属性
1234567891011121314151617input_tensor_shapes = {"import/Mul:0":[1,299,299,3], # batch size is 1"BottleneckInputPlaceholder:0":[1,2048],}output_tensor_names = ['import/pool_3/_reshape:0','final_train_ops/softMax_last:0']# Call the converter. This may take a whilecoreml_model = tfcoreml.convert(tf_model_path=FROZEN_MODEL_FILE,mlmodel_path=COREML_MODEL_FILE,input_name_shape_dict=input_tensor_shapes,output_feature_names=output_tensor_names,image_input_names = ['import/Mul:0'],red_bias = -1,green_bias = -1,blue_bias = -1,image_scale = 2.0/255.0)
上方具体的参数可以在方法看得到,后面四个参数就是我们输入图片时候的均值化, 还有个特殊的参数
class_labels
, output后的模型可以直接索引到标签, 但是在实践过程中, 我这个本身是迁移别人的学习的模型并起不到作用.
执行完成后生成文件:
ios-code调用
了解模型:
首先, 直接将inceptionV3.mlmodel拖入到工程:
导入头文件, inceptionV3.h
, 点开查看:
他们之间的关系是, inception_v3_input导入 -> 启动inception_v3.model训练 -> 得到inception_v3_output 分别提供了一个实例化方法.
开始代码
首先确认他们之间的调用方向 层次, 我直接是参考tensorflow加载的顺序, 只要理解了, 就可以直接调用了:
这是Py 大专栏 机器学习迁移模型到IOSthon的调用方法:
|
|
如果参照tensorflow加载模型的做法, 我们直接是一张图片, 得到一个run到pool3, 但实际CoreML只给我们生成了一个实例方法:
|
|
方法必须要传入一个MLMultiArray
, 而且shape必须一致的. 最后我直接调用MLMultiArray
的方法,生成一个0值的2048shape
预测部分的, 完整核心代码 均有详细的注释说明
|
|
调用摄像头进行图片获取
通过整合代码层次, 代码调用也封装好了, 方便代用:
从简书上拿到别人写好的调用摄像头拍照https://www.jianshu.com/p/62d69d89fa43, 提取了下代码:
主要逻辑:
拍照后重置大小展示到view, 异步进行模型预测, 回到主线程展示label结果.
|
|
测试结果
制作gif, 直接看图片: 或者上面链接从我的git上下载源码:
[好困, 该睡觉了...
]