Github上jetson-inference的学习(第一个视频hello ai world)

【方便今后读研过程中查阅】

首先,我们需要解决两个问题,一个是下载docker容器配好环境的问题,一个是检测摄像头的问题。GitHub上面都有,就不一一赘述(把链接贴在后面)。GitHub - dusty-nv/jetson-inference: Hello AI World guide to deploying deep-learning inference networks and deep vision primitives with TensorRT and NVIDIA Jetson.

关于相机问题,我查阅了资料,tx2板子上的摄像头是MIPI CSI摄像机。视频里是V4L2跟我们的不一样。(camera在附件中能查阅)

Inference的示例

Github上jetson-inference的学习(第一个视频hello ai world)_第1张图片

(Import/output streams)

一般用rtp协议传输到显示器查看反馈,注意电脑和tx2需要连同一个wifi,视频中他使用的是他自己的笔记本(x86)远程接收板子的反馈:

Github上jetson-inference的学习(第一个视频hello ai world)_第2张图片 Github上jetson-inference的学习(第一个视频hello ai world)_第3张图片

 Github上jetson-inference的学习(第一个视频hello ai world)_第4张图片

 

这是tx2(aarch64):

Github上jetson-inference的学习(第一个视频hello ai world)_第5张图片

Github上jetson-inference的学习(第一个视频hello ai world)_第6张图片 

传输RTP喷气式推理/辅助-streaming.md 在主人 •尘土飞扬/喷射-推理 »吉图布 (github.com)

Github上jetson-inference的学习(第一个视频hello ai world)_第7张图片

Video-viewer 命令     /dev/viede0相机名    Rtp://sky-x4e2主机名(每台电脑不一样),输入IP地址也可以

接下来是在pc端查看:

Github上jetson-inference的学习(第一个视频hello ai world)_第8张图片

这里他推荐的是Getstreamer ,因为延迟比较低,体验很好

下面一整段都是命令

$ gst-launch-1.0 -v udpsrc port=1234 \

 caps = "application/x-rtp, media=(string)video, clock-rate=(int)90000, encoding-name=(string)H264, payload=(int)96" ! \

 rtph264depay ! decodebin ! videoconvert ! autovideosink

要改变用来inference的网络时:

Github上jetson-inference的学习(第一个视频hello ai world)_第9张图片

你可能感兴趣的:(github,nvidia)