参考文章:How to Capture Camera Video and Do Caffe Inferencing with Python on Jetson TX2
与参考文章大部分都是相似的,如果不习惯看英文,可以看看我下面的描述
上篇博客:在Jetson TX2上捕获、显示摄像头视频 介绍了一个脚本 tegra-cam.py。主要是在Jetson TX2上显示三种摄像头捕获的视频。本节将对脚本进行扩展,使用caffe分类模型对摄像头视频进行演示。
主要的测试环境:python3和Jetson TX2
先决条件
参考:在Jetson TX2上捕获、显示摄像头视频 确保 tegra-cam.py 在Jetson TX2上运行正常
在Jetson TX2上构建caffe。参考:在Jetson TX2上安装caffe和PyCaffe
caffe模型采用默认的 bvlc_reference_caffenet 需要下载预训练模型和标签。下载连接 将下载好的模型拷到 /home/nvidia/caffe/models/bvlc_reference_caffenet/ 文件夹。执行
cd /home/nvidia/caffe
./data/ilsvrc12/get_ilsvrc_aux.sh
代码的下载和使用
下载代码:tegra-cam-caffe.py 下载地址:https://gist.github.com/jkjung-avt/d408aaabebb5b0041c318f4518bd918f
使用USB摄像头,分辨率设为1280x720。'–vid 1' 意味着 /de/video1
python3 tegra-cam-caffe.py --usb --vid --width --height
使用板载摄像头
python3 tegra-cam-caffe.py
使用IP CAM,同时替换成你自己的IP
python3 tegra-cam-caffe.py --rtsp --uri rtsp://admin:XXXXXX@192.168.1.64:554
使用板载摄像头对不同caffe模型进行图像分类
python3 tegra-cam-caffe.py --prototxt XXX.prototxt \
--model YYY.caffemodel \
--labels ZZZ.txt \
--mean UUU.binaryproto