尚硅谷AI大模型之深度学习-cc资源站
尚硅谷AI大模型之深度学习
此内容为付费资源,请付费后查看
100积分
永久包售后
1. 课程包更新
2. 通用视频格式
3. 超清高清视频
4. 资料齐全
5. 无二次加密
付费资源

尚硅谷AI大模型之深度学习

资源内容

内容分为神经网络基本原理、深度学习技巧、深度学习框架PyTorch和特殊结构网络四大部分。教程深入剖析了深度学习的底层原理,介绍了业界主流框架PyTorch的使用,通过大量应用案例和代码练习进行讲解,带你从0开始手动搭建深度神经网络。

教程前置知识:

一、数学基础,讲解中涉及一些数学原理和公式推导;二、编程基础,需要熟练掌握

语言;三、机器学习知识,深度学习课程是机器学习课程的延伸和深入,需要首先了解机器学习的基本概念和原理。

教程目录:

 001_教程简介

 002_深度学习_概述

 003_神经网络_基本概念和结构

 004_神经网络_感知机和激活函数

 005_激活函数_阶跃、Sigmoid和Tanh

 006_激活函数_ReLU

 007_激活函数_Softmax

 008_其它激活函数

 009_简单神经网络_信号传递

 010_简单神经网络_代码实现

 011_神经网络案例_手写数字识别_整体思路

 012_神经网络案例_手写数字识别_具体实现

 013_神经网络案例_手写数字识别_小批量计算

 014_损失函数_MSE

 015_损失函数_交叉熵误差

 016_损失函数_分类和回归任务常见损失函数

 017_数值微分_求导

 018_数值微分_计算切线

 019_数值微分_偏导数和梯度

 020_数值微分_计算梯度

 021_定义神经网络类

 022_神经网络的梯度计算

 023_梯度下降法_原理和代码实现

 024_梯度下降法案例_求最小值

 025_梯度下降法_超参数的影响

 026_梯度下降法_训练相关概念

 027_梯度下降法_SGD基本原理

 028_梯度下降法_SGD案例_神经网络类实现

 029_梯度下降法_SGD案例_加载数据和定义超参数

 030_梯度下降法_SGD案例_模型训练和测试

 031_反向传播_计算图和反向求导

 032_反向传播_链式法则

 033_反向传播_加法和乘法节点

 034_反向传播_激活函数层_ReLU

 035_反向传播_激活函数层_Sigmoid

 036_反向传播_仿射层Affine

 037_反向传播_输出层_基本介绍

 038_反向传播_输出层_原理推导

 039_反向传播_输出层_代码实现

 040_综合应用案例_手写数字识别_定义网络类

 041_综合应用案例_手写数字识别_模型训练和测试

 042_深度神经网络

 043_梯度消失和梯度爆炸

 044_学习优化方法_SGD

 045_学习优化方法_动量法

 046_学习优化方法_学习率衰减

 047_学习优化方法_AdaGrad

 048_学习优化方法_RMSProp

 049_学习优化方法_Adam

 050_学习优化方法_综合对比

 051_学习优化方法_超参数的调节

 052_参数初始化_常数初始化及其问题

 053_参数初始化_Xavier和He初始化

 054_正则化_Batch Norm

 055_正则化_权值衰减和Dropout

 056_PyTorch_基本介绍

 057_PyTorch_安装流程及CUDA介绍

 058_PyTorch_安装完成验证

 059_PyTorch_张量创建_按内容

 060_PyTorch_张量创建_按形状

 061_PyTorch_张量创建_按类型

 062_PyTorch_张量创建_指定区间

 063_PyTorch_张量创建_按数值填充

 064_PyTorch_张量创建_随机生成

 065_PyTorch_随机排列和随机数种子

 066_PyTorch_张量转换_元素数据类型转换

 067_PyTorch_张量转换_张量和ndarray的转换

 068_PyTorch_张量转换_张量和标量的转换

 069_PyTorch_张量数值计算_基本运算

 070_PyTorch_张量数值计算_哈达玛积和矩阵乘法

 071_PyTorch_节省内存

 072_PyTorch_张量统计运算函数

 073_PyTorch_张量索引操作_简单索引和范围索引

 074_PyTorch_张量索引操作_列表索引

 075_PyTorch_张量索引操作_布尔索引

 076_PyTorch_张量形状操作_交换维度

 077_PyTorch_张量形状操作_调整形状

 078_PyTorch_张量形状操作_增减维度

 079_PyTorch_张量拼接和堆叠

 080_PyTorch_自动微分模块_计算梯度基本流程

 081_PyTorch_自动微分模块_梯度计算原理

 082_PyTorch_自动微分模块_分离张量

 083_PyTorch_自动微分模块_detach对梯度计算的影响

 084_PyTorch_自动微分模块_detach与data的区别

 085_PyTorch_线性回归案例_模块和流程介绍

 086_PyTorch_线性回归案例_代码实现

 087_PyTorch深度学习_激活函数_Sigmoid

 088_PyTorch深度学习_激活函数_Tanh

 089_PyTorch深度学习_激活函数_ReLU

 090_PyTorch深度学习_激活函数_Softmax

 091_PyTorch深度学习_全连接层和参数初始化

 092_PyTorch深度学习_Dropout层

 093_PyTorch深度学习_神经网络搭建

 094_PyTorch深度学习_查看模型参数

 095_PyTorch深度学习_查看模型结构和参数数量

 096_PyTorch深度学习_device设置

 097_PyTorch深度学习_使用Sequential创建神经网络

 098_PyTorch深度学习_损失函数_BCE

 099_PyTorch深度学习_损失函数_CrossEntropyLoss

 100_PyTorch深度学习_损失函数_回归任务损失函数

 101_PyTorch深度学习_损失函数_综合测试

 102_PyTorch深度学习_动量法

 103_PyTorch深度学习_学习率衰减_等间隔

 104_PyTorch深度学习_学习率衰减_指定间隔和指数衰减

 105_PyTorch深度学习_AdaGrad和RMSProp

 106_PyTorch深度学习_Adam

 107_房价预测案例_数据分析和导入模块

 108_房价预测案例_特征工程

 109_房价预测案例_模型创建

 110_房价预测案例_定义损失函数

 111_房价预测案例_训练模型和测试

 112_CNN_基本结构

 113_CNN_卷积层_基本介绍

 114_CNN_卷积层_数学上的卷积

 115_CNN_卷积层_CNN的卷积运算

 116_CNN_卷积层_填充

 117_CNN_卷积层_步幅和输出形状计算

 118_CNN_卷积层_3维数据卷积运算

 119_CNN_卷积层_API调用和测试

 120_CNN_池化层_基本概念和特点

 121_CNN_池化层_API调用和测试

 122_CNN_深度卷积神经网络

 123_服装分类案例_加载数据集

 124_服装分类案例_创建模型

 125_服装分类案例_模型训练

 126_服装分类案例_模型测试

 127_NLP概述

 128_词向量和词嵌入

 129_嵌入层API使用

 130_词嵌入应用和NLP模型

 131_RNN_基本结构和原理

 132_RNN_API调用

 133_RNN_输入输出形状

 134_古诗生成案例_数据预处理

 135_古诗生成案例_创建数据集

 136_古诗生成案例_创建模型

 137_古诗生成案例_模型训练

 138_古诗生成案例_生成新诗

© 版权声明
THE END
点赞8 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容