趋近智
所有课程
先修课程 机器学习与Python要点
级别:
注意力机制
阐述注意力的含义,并区分不同的注意力机制。
自注意力
说明自注意力如何让模型评估序列中不同词语的重要性。
Transformer构架
概述Transformer模型的组成部分,包括编码器和解码器堆叠。
多头注意力
理解多头注意力的原理及实现方法。
位置编码
阐明引入序列顺序信息的必要性及具体做法。
初步实现
使用深度学习框架实现Transformer构架的核心构成。
本课程没有先修课程。
目前没有推荐的后续课程。
登录以撰写评论
分享您的反馈以帮助其他学习者。
© 2025 ApX Machine Learning