人工智能深度学习系统班6期 21 深度学习模型部署与剪枝优化实战
- 01 AIoT人工智能物联网之认识 jetson nano
- 01 jetson nano 硬件介绍
- 02 jetson nano 刷机
- 03 jetson nano 系统安装过程
- 04 感受nano的GPU算力
- 05 安装使用摄像头csi usb
- 02 AIoT人工智能物联网之AI 实战
- 01 jetson-inference 入门
- 02 docker 的安装使用
- 03 docker中运行分类模型
- 04 训练自己的目标检测模型准备
- 05 训练出自己目标识别模型a
- 06 训练出自己目标识别模型b
- 07 转换出onnx模型,并使用
- 03 AIoT人工智能物联网之NVIDIA TAO 实用级的训练神器
- 01 NVIDIA TAO介绍和安装
- 02 NVIDIA TAO数据准备和环境设置
- 03 NVIDIA TAO数据转换
- 04 NVIDIA TAO预训练模型和训练a
- 05 NVIDIA TAO预训练模型和训练b
- 06 NVIDIA TAO预训练模型和训练c.
- 07 TAO 剪枝在训练推理验证
- 04 AIoT人工智能物联网之deepstream
- 01 deepstream 介绍安装
- 02 deepstream HelloWorld
- 03 GStreamer RTP和RTSP1
- 04 GStreamer RTP和RTSP2
- 05 python实现RTP和RTSP
- 06 deepstream推理
- 07 deepstream集成yolov4
- 05 tensorRT视频
- 01 说在前面
- 02 学习工具环境的介绍,自动环境配置
- 03 cuda驱动API,课程概述和清单
- 04 cuda驱动API,初始化和检查的理解,CUDA错误检查习惯
- 05 cuda驱动API,上下文管理设置,以及其作用
- 06 cuda驱动API,使用驱动API进行内存分配
- 07 cuda运行时API,课程概述和清单
- 08 cuda运行时API,第一个运行时程序,hello-cuda
- 09 cuda运行时API,内存的学习,pinnedmemory,内存效率问题
- 10 cuda运行时API,流的学习,异步任务的管理
- 11 cuda运行时API,核函数的定义和使用
- 12 cuda运行时API,共享内存的学习
- 13 cuda运行时API,使用cuda核函数加速warpaffine
- 14 cuda运行时API,使用cuda核函数加速yolov5的后处理
- 15 cuda运行时API,错误处理的理解以及错误的传播特性
- 16 tensorRT基础,课程概述清单
- 17 tensorRT基础,第一个trt程序,实现模型编译的过程
- 18 tensorRT基础,实现模型的推理过程
- 19 tensorRT基础,模型推理时动态shape的具体实现要点
- 20 tensorRT基础,onnx文件及其结构的学习,编辑修改onnx.mkv
- 21 tensorRT基础,实际模型上onnx文件的各种操作
- 22 tensorRT基础,正确导出onnx的介绍,使得onnx问题尽量少
- 23 tensorRT基础,学习使用onnx解析器来读取onnx文件,使用onnx-tensorrt源代码
- 24 tensorRT基础,学习从下载onnx-tensorrt到配置好并运行起来全过程
- 25 tensorRT基础,学习第一个插件的编写
- 26 tensorRT基础,对插件过程进行封装,并实现更容易的插件开发
- 27 tensorRT基础,学习编译int8模型,对模型进行int8量化
- 28 tensorRT高级,课程概述和清单
- 29 tensorRT高级,第一个完整的分类器程序
- 30 tensorRT高级,学习yolov5目标检测项目的代码修改、模型导出、编译到推理过程,没有封装
- 31 tensorRT高级,学习UNet场景分割项目的代码修改、模型导出、编译到推理过程,没有封装
- 32 tensorRT高级,学习alphapose姿态检测项目的代码修改、模型导出、编译到推理过程,没有封装
- 33 tensorRT高级,学习如何处理mmdetection框架下yolox模型的导出,并使得正常推理出来
- 34 tensorRT高级,学习如何使用onnxruntime进行onnx的模型推理过程
- 35 tensorRT高级,学习如何使用openvino进行onnx的模型推理过程
- 36 tensorRT高级,学习深度学习中涉及的线程知识
- 37 tensorRT高级,学习模型部署时常用的生产者消费者模型,以及future、promise、condition_variable.mkv
- 38 tensorRT高级,学习使用RAII资源获取即初始化配合接口模式对代码进行有效封装
- 39 tensorRT高级,学习RAII 接口模式下的生产者消费者以及多Batch的实现
- 40 tensorRT高级,封装之,模型编译过程封装,简化模型编译代码
- 41 tensorRT高级,封装之,内存管理的封装,内存的复用
- 42 tensorRT高级,封装之,tensor张量的封装,索引计算,内存标记以及自动复制
- 43 tensorRT高级,封装之,infer推理的封装,输入输出tensor的关联
- 44 tensorRT高级,封装之,基于生产者消费者实现的yolov5封装
- 45 tensorRT高级,封装之,终极封装形态,以及考虑的问题
- 46 tensorRT高级,调试方法、思想讨论
- 47 tensorRT高级,自动驾驶案例项目self-driving-道路分割分析
- 48 tensorRT高级,自动驾驶案例项目self-driving-深度估计分析
- 49 tensorRT高级,自动驾驶案例项目self-driving-车道线检测分析
- 50 tensorRT高级,学习使用pybind11为python开发扩展模块
- 06 pyTorch框架部署实践
- 01 所需基本环境配置
- 02 模型加载与数据预处理
- 03 接收与预测模块实现
- 04 效果实例演示
- 05 课程简介
- 07 YOLO-V3物体检测部署实例
- 01 项目所需配置文件介绍
- 02 加载参数与模型权重
- 03 数据预处理
- 04 返回线性预测结果
- 08 docker实例演示
- 01 docker简介
- 02 docker安装与配置
- 03 阿里云镜像配置
- 04 基于docker配置pytorch环境
- 05 安装演示环境所需依赖
- 06 复制所需配置到容器中
- 07 上传与下载配置好的项目
- 09 tensorflow-serving实战
- 01 tf-serving项目获取与配置
- 02 加载并启动模型服务
- 03 测试模型部署效果
- 04 fashion数据集获取
- 05 加载fashion模型启动服务
- 10 模型剪枝-Network Slimming算法分析
- 01 论文算法核心框架概述
- 02 BatchNorm要解决的问题
- 03 BN的本质作用
- 04 额外的训练参数解读
- 05 稀疏化原理与效果
- 11 模型剪枝-Network Slimming实战解读
- 01 整体案例流程解读
- 02 加入L1正则化来进行更新
- 03 剪枝模块介绍
- 04 筛选需要的特征图
- 05 剪枝后模型参数赋值
- 06 微调完成剪枝模型
- 12 Mobilenet三代网络模型架构
- 01 模型剪枝分析
- 02 常见剪枝方法介绍
- 03 mobilenet简介
- 04 经典卷积计算量与参数量分析
- 05 深度可分离卷积的作用与效果
- 06 参数与计算量的比较
- 07 V1版本效果分析
- 08 V2版本改进以及Relu激活函数的问题
- 09 倒残差结构的作用
- 10 V2整体架构与效果分析
- 11 V3版本网络架构分析
- 12 SE模块作用与效果解读
- 13 代码实现mobilenetV3网络架构