• 学习时长

    16小时

  • 答疑服务

    2个月/专属微信群答疑服务,助教答疑

  • 课程有效期

    一年/告别拖延,温故知新

  • 第2章: 神经网络入门
  • 1: 【课件】神经网络
  • 第1节: 逻辑回归
  • 2: 【视频】逻辑回归
  • 第2节: 感知机
  • 3: 【视频】感知机
  • 第3节: 什么是神经网络?
  • 4: 【视频】神经网络
  • 第4节: 神经网络的大招:反向传播
  • 5: 【视频】反向传播
  • 第5节: 神经网络为什么有效?
  • 6: 【视频】激活函数
  • 第6节: 实践:基于神经网络的手写字符识别
  • 7: 【实践】手写字符识别
  • 第3章: 卷积神经网络CNN
  • 8: 【课件】卷积神经网络
  • 第1节: 什么是卷积及卷积神经网络的核心模块
  • 9: 【视频】卷积计算
  • 第2节: 卷积神经网络的前向传播
  • 10-1: 【视频】CNN网络结构与前向传播
  • 10-2: 【资料】A guide to convolution arithmetic
  • 10-3: 【资料】Visualizing Convolutional Networks
  • 第3节: 卷积神经网络的Loss与反向传播
  • 11-1: 【课件】CNN反向传播
  • 11-2: 【视频】参数与代价函数
  • 11-3: 【视频】反向传播
  • 12-1: 【课件】CNN与FCN
  • 12-2: 【视频】CNN的参数共享与梯度消失
  • 第4节: 实践:基于CNN的手写数字识别
  • 13-1: 【视频】CNN手写字符识别实践
  • 13-2: 【代码】实践作业代码
  • 第4章: 优化算法与参数调节
  • 14: 【课件】网络优化
  • 第1节: 优化算法: SGD与Adam
  • 15: 【视频】优化算法
  • 第2节: 参数初始化: Xavier等
  • 16: 【视频】参数初始化
  • 第3节: 数据预处理: 白化与数据增广
  • 17: 【视频】数据预处理和归一化
  • 第4节: 正则化
  • 18: 【视频】正则化
  • 第5章: PyTorch框架介绍
  • 19-1: 【课件】Pytorch框架
  • 19-2: 【资料】参考资料
  • 第1节: Pytorch简介与安装
  • 20-1: 【视频】Pytorch简介与安装
  • 20-2: 【视频】Windows下安装Pytorch
  • 第2节: Pytorch元素介绍
  • 21: 【视频】Pytorch元素介绍
  • 第3节: Pytorch网络搭建
  • 22: 【视频】Pytorch网络搭建
  • 第4节: 学习率
  • 23-1: 【视频】学习率
  • 23-2: 【视频】进阶
  • 第5节: 实践:基于PyTorch的CNN实践
  • 24: 【资料】基于PyTorch的CNN实践
  • 第6章: 从图灵测试到 ChatGPT-NLP 技术发展简史
  • 25: 【课件】NLP语言模型技术演进史
  • 第1节: 语言的引入
  • 26: 【视频】语言模型的引入
  • 第2节: 语言模型的进化
  • 27: 【视频】语言模型的进化
  • 第3节: 预训练语言模型:BERT 和 GPT
  • 28: 【视频】预训练语言模型
  • 第4节: 大模型的使用模式
  • 29: 【视频】大模型的使用模式:Pretrain+fine-tuning与Prompt-Instruct
  • 第7章: Transformer 的基础架构-序列到序列-Seq2Seq
  • 30: 【课件】Transformer的基本架构-序列到序列-Seq2Seq
  • 第1节: Seq2Seq的思想由来
  • 31: 【视频】Seq2Seq的思想由来
  • 第2节: Seq2Seq 架构详解
  • 32: 【视频】Seq2Seq架构详解
  • 第3节: Seq2Seq模型实现机器翻译任务
  • 33: 【视频】Seq2Seq模型实现机器翻译任务
  • 第4节: Seq2Seq 的历史地位与局限
  • 34: 【视频】Seq2Seq的局限
  • 第8章: Transformer 的核心机制-详解注意力 Attention
  • 35-1: 【课件】Transformer的核心机制-注意力Attention
  • 35-2: 【代码】Attention
  • 第1节: Seq2Seq的局限与Attention的引入
  • 36: 【视频】Seq2Seq的局限以及Attention如何解决这种局限
  • 第2节: 点积注意力思想
  • 37: 【视频】点积注意力思想
  • 第3节: 缩放点积注意力
  • 38: 【视频】缩放点积注意力
  • 第4节: 编码器-解码器注意力
  • 39: 【视频】编码器-解码器注意力
  • 第5节: 自注意力与多头注意力
  • 40: 【视频】自注意力与多头注意力
  • 第6节: 注意力中的掩码
  • 41: 【视频】注意力中的掩码
  • 第7节: 注意力机制总结
  • 42: 【视频】总结
  • 第9章: Transformer架构详解
  • 43: 【课件】Transformer的架构拆解和代码实现
  • 第1节: Transformer引入
  • 44: 【视频】Transformer引入
  • 第2节: Transformer架构概览
  • 45: 【视频】Transformer架构概览
  • 第3节: 组件:缩放点积注意力与多头注意力
  • 46: 【视频】组件:缩放点积注意力与多头注意力
  • 第4节: 组件:逐位置前向传播与正弦位置编码
  • 47: 【视频】组件:逐位置前向传播与正弦位置编码
  • 第5节: 组件:填充位置掩码
  • 48: 【视频】组件:填充位置掩码
  • 第6节: 组件:编码器与解码器层
  • 49: 【视频】组件:编码器与解码器层
  • 第7节: 基于Transformer的机器翻译
  • 50: 【视频】基于Transformer的机器翻译
  • 第10章: 训练你的简版生成式语言模型-GPT
  • 51: 【课件】GPT:生成式预训练Transformer
  • 第1节: 为什么 GPT 只需要 Decoder
  • 52: 【视频】为什么GPT只需要Decoder
  • 第2节: 基础模型
  • 53: 【视频】基础模型
  • 第3节: GPT 架构:逐组件拆解
  • 54: 【视频】GPT模型架构
  • 第4节: 用 WikiText 训练 Wiki-GPT
  • 55-1: 【视频】训练Wiki-GPT
  • 55-2: 【视频】程序架构梳理