# deploy_jetson **Repository Path**: iynaur/deploy_jetson ## Basic Information - **Project Name**: deploy_jetson - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: jetson - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2021-02-24 - **Last Updated**: 2021-02-24 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # detect_v2 #### 智能监控第二版。每路算法推一个视频流,且集成了摔倒识别。 ##### environment list: python3 \ tensorflow 1.14.0 \ psutil ##### 应用入口 assignment.py 备注 \ 20200514智能监控修改意见 给算法提供的设备接口: 视频设备的源视频地址:rtsp://admin:fcwl123456@192.168.1.94:554/Streaming/Channels/601 假设为设备1,每种算法(此处算法编号为10,20),单独一个推流地址,如下: 安全帽检测 rtmp://127.0.0.1/live/1@10 反光衣检测 rtmp://127.0.0.1/live/1@20 假如没有进行任何算法配置,后台自动初始化配置,不能返回空的配置参数. ## 生成tensorrt模型 由于tensorRT对于显卡没有普适性(看显卡算力,算力相同的不同显卡应该是可以使用同一个模型),所以每次给客户部署代码,如果显卡不同,就需要重新编译。 下面以安全帽为例,说明重新生成模型所需要的步骤: - cd yolov5 - Choose the model s/m/l/x by `NET` macro in yolov5.cpp (你训练出来用的那种型号的模型就改成对应的,我这里用的yolov5s,所以写s) - Input shape defined in yololayer.h (输入,这里需要和你训练时候的分辨率一样, 默认为640) - Number of classes defined in yololayer.h (类别,训练时候几类这里就是,这里安全帽就应该改成2) - FP16/FP32 can be selected by the macro in yolov5.cpp (目前仅支持fp32,fp16两种,一般服务器还是用fp32,亲测fp16比fp32大概快20%~30%,但是精度有所下降,在计算资源足够时选fp32) - GPU id can be selected by the macro in yolov5.cpp (选择gpu id) - NMS thresh in yolov5.cpp (调整nms) - BBox confidence thresh in yolov5.cpp (调整置信度) - Batch size in yolov5.cpp (调整batch_size) - mv wtsfiles/safety_helmet_detection.wts ../yolov5s.wts - mkdir build - cd build - cmake .. - make - sudo ./yolov5 -s - cp -r build/ ../model/safety_helmet_model //把整个build文件移动到对应模型文件加下 **注意:** 目前所有模型的wts文件存放在yolov5/wtsfiles,按照模型名称已经命名好了,需要什么模型就拿出去重新cmake,make就ok了。