人工智能深度学习系统班6期 09 2022论文必备-Transformer实战系列
- 01 课程介绍
- 01 课程介绍
- 02 自然语言处理通用框架BERT原理解读
- 01 BERT任务目标概述
- 02 传统解决方案遇到的问题
- 03 注意力机制的作用
- 04 self-attention计算方法
- 05 特征分配与softmax机制
- 06 Multi-head的作用
- 07 位置编码与多层堆叠
- 08 transformer整体架构梳理
- 09 BERT模型训练方法
- 10 训练实例
- 03 Transformer在视觉中的应用VIT算法
- 01 transformer发家史介绍
- 02 对图像数据构建patch序列
- 03 VIT整体架构解读
- 04 CNN遇到的问题与窘境
- 05 计算公式解读
- 06 位置编码与TNT模型
- 07 TNT模型细节分析
- 04 VIT算法模型源码解读
- 01 项目配置说明
- 02 输入序列构建方法解读
- 03 注意力机制计算
- 04 输出层计算结果
- 05 swintransformer算法原理解析
- 01 swintransformer整体概述
- 02 要解决的问题及其优势分析
- 03 一个block要完成的任务
- 04 获取各窗口输入特征
- 05 基于窗口的注意力机制解读
- 06 窗口偏移操作的实现
- 07 偏移细节分析及其计算量概述
- 08 整体网络架构整合
- 09 下采样操作实现方法
- 10 分层计算方法
- 06 swintransformer源码解读
- 01 数据与环境配置解读
- 02 图像数据patch编码
- 03 数据按window进行划分计算
- 04 基础attention计算模块
- 05 窗口位移模块细节分析
- 06 patchmerge下采样操作
- 07 各block计算方法解读
- 08 输出层概述
- 07 基于Transformer的detr目标检测算法
- 01 DETR目标检测基本思想解读
- 02 整体网络架构分析
- 03 位置信息初始化query向量
- 04 注意力机制的作用方法
- 05 训练过程的策略
- 08 detr目标检测源码解读
- 01 项目环境配置解读
- 02 数据处理与dataloader
- 03 位置编码作用分析
- 04 backbone特征提取模块
- 05 mask与编码模块
- 06 编码层作用方法
- 07 Decoder层操作与计算
- 08 输出预测结果
- 09 损失函数与预测输出
- 09 MedicalTrasnformer论文解读
- 01 论文整体分析
- 02 核心思想分析
- 03 网络结构计算流程概述
- 04 论文公式计算分析
- 05 位置编码的作用与效果
- 06 拓展应用分析
- 10 MedicalTransformer源码解读
- 01 项目环境配置
- 02 医学数据介绍与分析
- 03 基本处理操作
- 04 AxialAttention实现过程
- 05 位置编码向量解读
- 06 注意力计算过程与方法
- 07 局部特征提取与计算
- 11 商汤LoFTR算法解读
- 01 特征匹配的应用场景
- 02 特征匹配的基本流程分析
- 03 整体流程梳理分析
- 04 CrossAttention的作用与效果
- 05 transformer构建匹配特征
- 06 粗粒度匹配过程与作用
- 07 特征图拆解操作
- 08 细粒度匹配的作用与方法
- 09 基于期望预测最终位置
- 10 总结分析
- 12 局部特征关键点匹配实战
- 01 项目与参数配置解读
- 02 DEMO效果演示
- 03 backbone特征提取模块
- 04 注意力机制的作用与效果分析
- 05 特征融合模块实现方法
- 06 cross关系计算方法实例
- 07 粗粒度匹配过程
- 08 完成基础匹配模块
- 09 精细化调整方法与实例
- 10 得到精细化输出结果
- 11 通过期望计算最终输出
- 13 项目补充-谷歌开源项目BERT源码解读与应用实例
- 01 BERT开源项目简介
- 02 项目参数配置
- 03 数据读取模块
- 04 数据预处理模块
- 05 tfrecord制作
- 06 Embedding层的作用
- 07 加入额外编码特征
- 08 加入位置编码特征
- 09 mask机制的作用
- 10 构建QKV矩阵
- 11 完成Transformer模块构建
- 12 训练BERT模型
- 14 项目补充-基于BERT的中文情感分析实战
- 01 中文分类数据与任务概述
- 02 读取处理自己的数据集
- 03 训练BERT中文分类模型