Skip to content

动手学深度学习 Road Map

动手学深度学习

动手学习深度学习,相信对于 AI 领域的同学来说,并不陌生。在没有接触具体内容之前,我希望可以借鉴到其他同学的一些学习经验,帮助我快速的上手这本书。

以下是一些从网上收集来的内容,本人还没有对内容进行验证,请谨慎参考。

资料收集

网友学习经验摘抄

小红书网友

学前基础

  1. 编程基础薄弱
  2. 应用数学专业
  3. C 语言和 Python 基础,无其他编程经验

学习经历

阶段内容描述
学习初期最初,我结合 GPT 学习深度学习,但在学习 RNN 时,感觉自己的代码基础不够,导致无法深入理解。
学习资源主要观看了 B 站小土堆的教程,他的讲解非常通俗易懂,适合入门学习。
深入学习掌握基础知识后,感到自己真正理解了深度学习的模式,重新开始学习李沐的视频课程。
RNN 学习挑战学习 RNN 时感到困难,主要是因为语言数据集处理方法特殊,导致代码处理复杂。
学习方法反思最有效的学习方法是自己阅读教材,并结合 GPT 逐步解析内容,完成后再观看李沐的视频。
遇到的困难对某些内容(如计算性能等)理解不够,感觉缺乏计算机组成原理等相关知识,决定暂时搁置。
论文阅读阅读了 Transformer 的论文原文,但未能获得新的知识,感觉原文比课本还要简略。

对各章节的理解

预备知识
  • 基础知识:具备基础的 Python 和 PyTorch 应用,但在自动微分方面感到困惑。
  • 学习建议:初次接触自动微分时可能会感到迷茫,但不必过于担心,简单了解后对后续学习影响不大。
线性神经网络
  • 重要性:这一章非常重要,帮助理解神经网络处理问题的思路。
  • 关键组成部分
    • 数据集
    • 模型本身
    • 损失函数
    • 优化算法
  • 分类问题:Softmax 提供了处理分类问题的方法,对图像数据集的理解有助于后续学习卷积神经网络(CNN)。
多层感知机
  • 预备知识:这一章为 CNN 的学习打下基础。
  • 基础概念:学习如何构建更深的网络、实现“非线性”,以及暂退法等。
  • 学习难度:总体来说不难,但需要熟练掌握。
深度学习计算
  • 学习状态:未深入学习,未详细记录。
卷积神经网络
  • 学习进展:逐渐步入正轨,学习卷积神经网络的内容。
  • 学习乐趣:互相关运算的研究过程充满乐趣。
现代卷积神经网络
  • 内容概述:研究现代卷积神经网络,重点在于 AlexNet 和 ResNet。
  • 学习重点
    • AlexNet 作为奠基者
    • ResNet 作为现代常用网络
    • GoogLeNet 的特殊处理思路
循环神经网络
  • 学习逻辑:按照李沐视频的学习逻辑进行,放在最后学习。
  • 学习要点
    • 理解序列模型的概念
    • 熟悉语言数据集的构建方法
  • 注意事项:语言数据集的构建与图像数据集有很大差别,需注意输入和输出的形状及各维的含义。
现代循环神经网络
  • 重要性:掌握 GRU 和 LSTM,学习难度不大。
  • 概念理解:深度和双向循环神经网络的概念简单,容易上手。
注意力机制
  • 学习内容:内容接近现代应用,难度适中。
  • 学习重点:熟悉注意力机制的模式,多头注意力和自注意力是 Transformer 的预备知识。
优化算法
  • 学习状态:只听了李沐的课程,整体学习影响不大。
计算性能
  • 学习状态:未深入学习,未详细记录。
计算机视觉
  • 应用领域:卷积神经网络的一个应用,学习难度较大。
  • 学习感受:相对不易,但值得学习,最后的风格迁移应用很有趣。
自然语言处理
  • 学习内容:学习了 BERT 和 BERT 微调,作为 Transformer 的应用。
  • 学习感受:学习过程轻松,现代应用广泛,带来成就感。

Released under the MIT License.