-
学习时长
16小时
-
答疑服务
2个月/专属微信群答疑服务,助教答疑
- 第1章: 开篇:深度学习发展以及应用
- 第1节: 卷积结构与Transformer架构的对比
- 第2节: 注意力机制
- 第3节: Transformer架构详解
- 第4节: 总结
- 第2章: 神经网络入门
- 第1节: 逻辑回归
- 第2节: 感知机
- 第3节: 什么是神经网络?
- 第4节: 神经网络的大招:反向传播
- 第5节: 神经网络为什么有效?
- 第6节: 实践:基于神经网络的手写字符识别
- 第3章: 卷积神经网络CNN
- 第1节: 什么是卷积?
- 第2节: 卷积神经网络的核心模块
- 第3节: 卷积神经网络的前向传播
- 第4节: 卷积神经网络的Loss与反向传播
- 第5节: 实践:基于CNN的手写数字识别
- 第4章: 优化算法与参数调节
- 第1节: 优化算法: SGD与Adam
- 第2节: 参数初始化: Xavier等
- 第3节: 数据预处理: 白化与数据增广
- 第4节: 正则化
- 第5章: PyTorch框架介绍
- 第1节: Pytorch简介与安装
- 第2节: Pytorch元素介绍
- 第3节: Pytorch网络搭建
- 第4节: 学习率
- 第5节: 实践:基于PyTorch的CNN实践
- 第6章: 从图灵测试到 ChatGPT-NLP 技术发展简史
- 第1节: 语言的引入
- 第2节: 语言模型的进化
- 第3节: 预训练语言模型:BERT 和 GPT
- 第4节: 大模型的使用模式
- 第7章: Transformer 的基础架构-序列到序列-Seq2Seq
- 第1节: Seq2Seq的思想由来
- 第2节: Seq2Seq 架构详解
- 第3节: Seq2Seq模型实现机器翻译任务
- 第4节: Seq2Seq 的历史地位与局限
- 第8章: Transformer 的核心机制-详解注意力 Attention
- 第1节: Seq2Seq的局限与Attention的引入
- 第2节: 点积注意力思想
- 第3节: 缩放点积注意力
- 第4节: 编码器-解码器注意力
- 第5节: 自注意力与多头注意力
- 第6节: 注意力中的掩码
- 第7节: 注意力机制总结
- 第9章: Transformer架构详解
- 第1节: Transformer引入
- 第2节: Transformer架构概览
- 第3节: 组件:缩放点积注意力与多头注意力
- 第4节: 组件:逐位置前向传播与正弦位置编码
- 第5节: 组件:填充位置掩码
- 第6节: 组件:编码器与解码器层
- 第7节: 基于Transformer的机器翻译
- 第10章: 训练你的简版生成式语言模型-GPT
- 第1节: 为什么 GPT 只需要 Decoder
- 第2节: 基础模型
- 第3节: GPT 架构:逐组件拆解
- 第4节: 用 WikiText 训练 Wiki-GPT