# 深度学习基础技术文档总结 **Repository Path**: jesslee/deeplearning ## Basic Information - **Project Name**: 深度学习基础技术文档总结 - **Description**: 深度学习数学基础、神经网络基础技术系列文章总结 - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2024-10-03 - **Last Updated**: 2024-10-03 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ## *深度学习部分数学相关问题总结到《*[*人工智能数学基础目录专栏*](https://zhuanlan.zhihu.com/p/692873436)*》* 1. [【深度学习基础】 独热编码 (One-Hot Encoding)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/790267995) 2. [【深度学习基础】ReLU(Rectified Linear Unit,修正线性单元)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/787778022) 3. [【深度学习基础】Tanh(双曲正切激活函数)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/787729997) 4. [【深度学习基础】Sigmoid 激活函数由来原理场景示例详解](https://zhuanlan.zhihu.com/p/787876369) 5. [【深度学习基础】Softmax 激活函数由来原理场景示例详解](https://zhuanlan.zhihu.com/p/787944995) 6. [【深度学习基础】激活函数导数由来原理场景公式图解](https://zhuanlan.zhihu.com/p/796190059) 7. [【深度学习基础】交叉熵损失函数 (Cross-Entropy Loss Function)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/790420874) 8. [【深度学习基础】反向传播算法图式推导过程](https://zhuanlan.zhihu.com/p/795804984) 9. [高等数学中的求导公式总结](https://zhuanlan.zhihu.com/p/796095877) 10. [梯度下降与导数的关系](https://zhuanlan.zhihu.com/p/796611833) 11. [牛顿法由来原理场景示例详解](https://zhuanlan.zhihu.com/p/796651075) ## 深度学习DeepLearning 1. [【PyTorch系列】如何在 Anaconda 中安装 PyTorch:使用 Conda 或 Pip](https://zhuanlan.zhihu.com/p/782453119) 2. [【深度学习基础】多层感知机 (Multilayer Perceptron, MLP)](https://zhuanlan.zhihu.com/p/789486358) 3. [【深度学习基础】输入层 (Input Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/788525907) 4. [【深度学习基础】隐藏层 (Hidden Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/788620304) 5. [【深度学习基础】卷积层 (Convolutional Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/788824365) 6. [【深度学习基础】卷积层卷积核 (Convolution Kernel)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/788926260) 7. [【深度学习基础】卷积层通道 (Convolution Layer Channel)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/789084644) 8. [【深度学习基础】池化层 (Pooling Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/788705830) 9. [【深度学习基础】全连接层 (Fully Connected Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/789336180) 10. [【深度学习基础】输出层 (Output Layer)由来原理场景示例详解](https://zhuanlan.zhihu.com/p/789167598) 11. [【深度学习基础】神经网络的参数数量与层数关系](https://zhuanlan.zhihu.com/p/802786142) ## [【深度学习基础】神经网络的参数数量与层数关系](https://zhuanlan.zhihu.com/p/802786142/) *源自专栏《*[*Python床头书、图计算、ML目录(持续更新)*](https://zhuanlan.zhihu.com/p/680999372)*》* ## 1. 由来 神经网络是由多个层组成的,每一层包含一定数量的参数(权重和偏置)。网络的参数数量和层数共同决定了模型的复杂性、学习能力和推理速度。深层网络(通常称为“深度神经网络”)具有更多的层和参数,适合处理复杂的数据集。 ## 2. 神经网络参数数量的计算 神经网络的参数主要包括**权重**和**偏置**,计算参数的数量与网络的层数、每层神经元的数量有关。 - 全**连接层(Dense Layer)**: 如果第 层有 个神经元,第 层有 个神经元,那么该层的参数数量为: - 卷**积层(Convolutional Layer)**: 假设卷积核的大小为 ,输入通道为 ,输出通道为 ,则卷积层的参数数量为: - 循**环层(RNN/LSTM/GRU)**: 在循环神经网络中,参数数量取决于输入和隐藏层的维度。如果隐藏层维度为 ,输入维度为 ,则: ## 3. 层数对神经网络的影响 神经网络的层数直接影响模型的表达能力和性能: - **浅层网络**:通常层数较少(1-2层),适合解决简单的问题。它们的参数量较少,计算开销较低,但处理复杂数据时表现不佳。 - **深度网络**:层数较多,通常用于解决复杂的模式识别问题,如图像识别和自然语言处理。深层次网络可以捕获更多的特征信息,但可能面临过拟合、梯度消失或爆炸等问题。 - **超深网络**:网络层数超过 50 层,常见于 ResNet、DenseNet 等网络中,通过跳跃连接或残差结构缓解梯度问题。 ## 4. 参数与层数的关系 **参数数量和层数呈现非线性关系**。增加层数通常会导致参数数量的指数增长,尤其在全连接层中。 - 对于卷积层,参数量与卷积核大小和通道数有关,而不是层数的简单倍数。 - 深度网络中的每一层都可能包含成千上万的参数,因此每增加一层,都可能极大增加模型的存储和计算需求。 ## 5. 优化与权衡 - **参数量与性能**:更多的参数通常意味着更强的表达能力,但也增加了计算开销和过拟合的风险。 - **深度与效率**:更深的网络可以捕获更多复杂特征,但训练深层网络时需要解决梯度消失、爆炸问题,这通常通过批归一化、残差连接等技术来缓解。 ## 6. 神经网络设计示例 ### 示例 1:简单全连接网络 假设一个全连接网络,有输入层 784 个神经元(28x28 的图像),一个隐藏层有 128 个神经元,输出层为 10 个神经元(用于分类任务): - 隐**藏层参数**: - 输**出层参数**: - **总参数量**:101,770 ### 示例 2:卷积神经网络(CNN) 一个卷积层使用 的卷积核,输入通道 3,输出通道 32(彩色图像输入): **卷积层参数**: ## 7. 官方链接 - [Understanding Neural Networks - DeepLearning.ai](https://www.deeplearning.ai/) - [Neural Networks and Deep Learning - Coursera](https://www.coursera.org/learn/neural-networks-deep-learning)