趋近智
首页
博客
课程
大模型
中
所有课程
自动编码器与特征学习入门
章节 1: 理解自动编码器
无监督学习简介
神经网络简介
核心思想:学习数据重建
编码器、瓶颈和解码器:主要组成部分
学习数据表示的用途
自动编码器类比
自编码器处理的初步问题
章节 2: 自动编码器的构成:编码器与解码器
编码器:数据压缩
输入层的结构
编码器隐藏层与数据压缩
瓶颈:紧凑表示
编码器中常用的激活函数
解码器:数据重建
解码器隐藏层与数据解压
输出层的结构
解码器中常用的激活函数
输入与输出的匹配
章节 3: 自动编码器如何学习
训练目标:减少重建误差
自编码器的损失函数 (MSE, BCE)
学习过程:优化基础
数据流:前向传播说明
从错误中学习:反向传播(宏观视角)
训练周期:迭代次数与批次
过拟合与欠拟合初识
构建自编码器的准备工作
章节 4: 自编码器与特征学习
数据集中特征的界定
比较人工与学习的特征方法
自编码器如何识别数据内在特征
瓶颈层作为特征提取器
使用自编码器降维
学习到的表示的简单可视化
有效数据表示的作用
章节 5: 构建一个基础自动编码器
深度学习的 Python 环境配置
TensorFlow和Keras入门
加载并理解一个基础数据集
自动编码器的数据预处理
构建一个简单的自编码器模型
配置模型以进行训练
执行训练过程
评估重建质量
可视化重建输出:动手实践
检查编码数据:实践
从错误中学习:反向传播(宏观视角)
这部分内容有帮助吗?
有帮助
报告问题
标记为完成
© 2025 ApX Machine Learning
自编码器中的反向传播