我们的思路是,先从神经网络模型的视角出发,看看模型需要什么样的输入;再从XCode中object-c语言、swift语言(还可以使用Vision框架啊)的视角出发,看如何能能够从相册或者摄像头获取视觉信息,并转换为模型所需要的输入。
这些视觉信息在iOS的SDK中由不同的对象代表(OC和Swift中一样),非常有意思,这些对象有:
CMSampleBufferRef
CVPixelBufferRef
CIImage
CGImageRef
UIImage
会发现这些对象名称都有那种有规律的前缀,它们的含义是:CV代表CoreVideo,CI代表CoreImage,CM代表 CoreMedia,CF代表CoreFoundation,CG代表 CoreGraphic,UI代表User Interface。
以上出处:https://home.cnblogs.com/blog/