趋近智
逻辑回归是一种学习特定边界来区分不同类别的算法。K-近邻算法(KNN)提供了一种截然不同的分类方法。
KNN通常是学生们接触到的首批分类算法之一,因为其核心思路非常直接且易懂。与逻辑回归不同,逻辑回归在独立的训练阶段试图从数据中学习一个通用规则(决策边界),而KNN则采取了不同的方式。它被称为基于实例的或惰性学习算法。
“惰性”听起来可能有些负面,但在这种情况下,它仅仅表示KNN不会事先构建一个显式模型。它没有像线性回归或逻辑回归那样在训练期间被优化的方程。相反,KNN本质上是记住整个训练数据集。所有主要计算都发生在预测时。当您想对一个新的、未见过的数据点进行分类时,KNN会查看现有、已标记的数据点(训练集),并找出与新点最相似或“最近”的那些点。
KNN背后的基本思路很简单:一个数据点很可能属于与其最近邻点相同的类别。
设想您有一个数据点的散点图,每个点各属于两个类别中的一个,比如圆形和方形。现在,您在图上引入一个未标记的新点(我们称之为'X')。您会如何判断X是圆形还是方形呢?KNN建议您查看训练数据中在图中与X最接近的'K'个点。
K-近邻算法中的'K'是您选择的一个参数。它代表您考虑的邻居数量。如果您选择K=1,算法只查看单个最近的邻居。如果您选择K=5,它会查看五个最近的邻居并在它们之间进行多数表决。
KNN预测过程的基本流程。新点的类别由其K个最近的训练数据邻居中的多数类别决定。
为了找到“最近”的邻居,KNN需要一种方法来衡量特征空间中数据点之间的距离。特征空间是一个多维空间,每个维度都代表您数据的一个特征(如身高、宽度、温度等)。
衡量这种距离最常用的方法是使用欧几里得距离。如果您还记得几何课中用于计算2D平面上两点(x1,y1)和(x2,y2)之间距离的公式,那就是欧几里得距离:
距离=(x2−x1)2+(y2−y1)2这个公式很容易扩展到更多维度(更多特征)。如果您在n维特征空间中有两个点P=(p1,p2,...,pn)和Q=(q1,q2,...,qn),那么欧几里得距离是:
距离(P,Q)=(q1−p1)2+(q2−p2)2+...+(qn−pn)2这本质上是您的特征所定义的空间中两点之间的直线距离。虽然欧几里得距离很常用,但根据数据的特点和问题的类型,也可以使用其他距离度量(如曼哈顿距离或闵可夫斯基距离)。距离度量的选择会影响结果。
KNN因其简单性以及在不对数据分布作强假设的情况下也能表现良好而吸引人。然而,其性能可能对'K'的选择、所使用的距离度量以及特征的缩放(因为距离计算受每个维度值范围的影响)很敏感。我们还需要考虑计算成本,因为将一个新点与所有训练点进行比较对于非常大的数据集来说可能要求很高。
在下一节中,我们将查看KNN如何进行预测的逐步过程,并讨论选择'K'和为该算法准备数据的重要考虑因素。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造