【深度学习】 1 Deep Learning
深度学习(Deep Learning)是机器学习的一个子领域,它通过模仿人脑的神经网络结构,构建多层次的“人工神经网络”来学习和提取数据中的复杂模式。它的核心思想是通过多层次的非线性变换,从原始数据中自动学习高层次的特征表示,而无需依赖人工设计特征。
关键概念
-
神经网络基础:
- 由**神经元(节点)和层(Layers)**组成,包括输入层、隐藏层和输出层。
- 每个神经元接收输入,进行加权求和并通过激活函数(如ReLU、Sigmoid)输出结果。
-
“深度”的含义:
- 指神经网络的隐藏层数量较多(通常超过2层),能够学习更复杂的特征层次。例如:
- 浅层网络:学习边缘、颜色等低级特征。
- 深层网络:学习纹理、物体部件甚至高级语义特征(如人脸、物体类别)。
- 指神经网络的隐藏层数量较多(通常超过2层),能够学习更复杂的特征层次。例如:
-
核心算法:
- 反向传播(Backpropagation):通过计算损失函数的梯度,调整网络权重以最小化误差。
- 梯度下降优化:使用优化器(如Adam、SGD)更新权重。
常见深度学习模型
-
卷积神经网络(CNN):
- 专为图像设计,通过卷积核提取局部特征(如边缘、纹理)。
- 应用:图像分类(ResNet)、目标检测(YOLO)。
-
循环神经网络(RNN):
- 处理序列数据(如文本、时间序列),具有记忆功能。
- 改进版:LSTM、GRU(解决长程依赖问题)。
-
Transformer:
- 基于自注意力机制(Self-Attention),擅长捕捉长距离关系。
- 应用:自然语言处理(BERT、GPT)、图像生成(Vision Transformer)。
-
生成对抗网络(GAN):
- 由生成器和判别器对抗训练,生成逼真数据(如图像、视频)。
为什么深度学习强大?
- 自动特征提取:无需人工设计特征,直接从数据中学习。
- 大数据优势:数据量越大,性能通常越好(依赖GPU/TPU加速)。
- 跨领域应用:图像、语音、文本、游戏(如AlphaGo)等。
挑战与局限
- 需要大量数据和计算资源。
- 模型可解释性差(“黑箱”问题)。
- 可能过拟合,需依赖正则化(如Dropout)或数据增强。
典型应用场景
- 计算机视觉:人脸识别、自动驾驶。
- 自然语言处理:机器翻译、聊天机器人。
- 医疗:疾病诊断(如医学影像分析)。
- 推荐系统:个性化内容推荐(如Netflix、抖音)。