人工智能深度学习系统班6期 23 自然语言处理通用框架-BERT实战
- 01 自然语言处理通用框架BERT原理解读
- 01 BERT课程简介
- 02 BERT任务目标概述
- 03 传统解决方案遇到的问题
- 04 注意力机制的作用
- 05 self-attention计算方法
- 06 特征分配与softmax机制
- 07 Multi-head的作用
- 08 位置编码与多层堆叠
- 09 transformer整体架构梳理
- 10 BERT模型训练方法
- 11 训练实例
- 02 谷歌开源项目BERT源码解读与应用实例
- 01 BERT开源项目简介
- 02 项目参数配置
- 03 数据读取模块
- 04 数据预处理模块
- 05 tfrecord数据源制作
- 06 Embedding层的作用
- 07 加入额外编码特征
- 08 加入位置编码特征
- 09 mask机制的作用
- 10 构建QKV矩阵
- 11 完成Transformer模块构建
- 12 训练BERT模型
- 03 项目实战-基于BERT的中文情感分析实战
- 01 中文分类数据与任务概述
- 02 读取处理自己的数据集
- 03 训练BERT中文分类模型
- 04 项目实战-基于BERT的中文命名实体识别识别实战
- 01 命名实体识别数据分析与任务目标
- 02 NER标注数据处理与读取
- 03 构建BERT与CRF模型
- 05 必备基础知识点-woed2vec模型通俗解读
- 01 词向量模型通俗解释
- 02 模型整体框架
- 03 训练数据构建
- 04 CBOW与Skip-gram模型
- 05 负采样方案
- 06 必备基础-掌握Tensorflow如何实现word2vec模型
- 01 数据与任务流程
- 02 数据清洗
- 03 batch数据制作
- 04 网络训练
- 05 可视化展示
- 07 必备基础知识点-RNN网络架构与情感分析应用实例
- 01 RNN网络模型解读
- 02 NLP应用领域与任务简介
- 03 项目流程解读
- 04 加载词向量特征
- 05 正负样本数据读取
- 06 构建LSTM网络模型
- 07 训练与测试效果
- 08 LSTM情感分析
- 08 医学糖尿病数据命名实体识别
- 01 数据与任务介绍
- 02 整体模型架构
- 03 数据-标签-语料库处理
- 04 训练网络模型
- 05 医疗数据集(糖尿病)实体识别
- 06 输入样本填充补齐