趋近智
你已经了解到,机器学习 (machine learning)让系统能够从数据中学习规律,而无需为每一个规则进行明确编程。但这些系统究竟是如何学习的呢?实际上,学习方式不止一种。机器学习算法通常根据它们执行的学习任务种类和所学习数据的特点来分类。可以把这些类别视为我们学习机器的不同教学方法。
你会遇到的三种最常见类别是:
接下来我们逐一看看。
想象一下你在教一个孩子识别不同的水果。你给他看一个苹果,说“苹果”,再给他看一个香蕉,说“香蕉”,以此类推。你提供了例子(水果图片)和正确答案(水果名称)。这就是监督学习的核心。
在监督学习中,机器学习 (machine learning)算法在数据集上进行训练,每个数据点都包含输入特征和对应的正确输出或“标签”。目标是让算法学习一个映射函数,以便能够为新的、未见过的输入特征预测输出标签。之所以称之为“监督”,是因为正确标签的存在指导着学习过程,很像老师监督学生一样。
监督学习问题主要有两种类型:
监督学习的基本流程:算法从带标签数据中学习,以创建一个能够预测新的、未带标签数据标签的模型。
如今,多数机器学习的实际运用都采用监督学习,因为拥有带标签的数据通常能为特定任务带来更准确的预测。第3章和第4章将进一步介绍回归和分类方法。
现在,想象一下你给同一个孩子一大盒混杂的乐高积木,没有任何说明或标签。孩子可能会开始根据颜色、形状或大小对它们进行分类,在积木中发现自然的 分组。这与无监督学习类似。
在无监督学习中,算法获得输入数据,没有任何对应的输出标签。目标是让算法自行分析数据,找出有意义的结构、模式或关系。之所以称之为“无监督”,是因为没有老师或正确答案来指导这个过程。
无监督学习任务的常见类型包括:
无监督学习的基本流程:算法分析未带标签的数据,以找出隐藏的模式或分组。
无监督学习常用于数据分析,并且可以发现意想不到的洞察。第5章将介绍一种流行的聚类算法。
想想你是如何训练狗的:你告诉它“坐下”,如果它坐下了,你就给它零食(奖励)。如果它没坐下,就没有零食(或者可能会有一个温和的纠正,一种惩罚)。随着时间的推移,狗会学习哪些行为能带来奖励。强化学习(RL)的工作原理类似。
在强化学习中,一个“智能体”(学习算法)与一个“环境”进行交互。智能体观察环境的当前状态并选择一个动作。基于这个动作,环境会转换到一个新状态,并以奖励(积极)或惩罚(消极)的形式向智能体提供反馈。智能体的目标是学习一个被称为“策略”的方法,使它随时间最大化其累积奖励。
强化学习的主要组成部分:
强化学习中的交互循环:智能体行动,环境以新状态和反馈进行响应,智能体学习优化其动作。
强化学习特别适合于需要顺序做出决策,并且动作影响可能不会立即显现的问题。例子包括:
尽管非常强大,强化学习的实施通常比监督学习 (supervised learning)或无监督学习 (unsupervised learning)更复杂,并且通常在更高级的课程中讲授。
尽管这三者是主要类别,但你偶尔可能还会听到其他一些:
理解这些机器学习 (machine learning)系统的基本类型,为你思考不同的机器学习问题及其解决方法提供了框架。随着你学习本课程,你将主要看到监督学习和无监督学习的例子,它们构成了许多常见应用的根本。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•