geekdoc-python-zh/docs/askpython/knn-in-python.md

4.9 KiB
Raw Permalink Blame History

Python 中的 KNN——简单实用的实现

原文:https://www.askpython.com/python/examples/knn-in-python

读者朋友们,你们好!在这篇文章中,我们将关注对 Python 中 KNN 的理解和实现。

所以,让我们开始吧!!


什么是 KNN 算法?

KNN 是 K 近邻的首字母缩写。它是一种有监督的机器学习算法。KNN 基本上用于分类和回归。

KNN 不假设任何底层参数,即它是一个non-parametric算法。


KNN 算法遵循的步骤

  • 它最初将训练数据存储到环境中。
  • 当我们提出用于预测的数据时Knn 根据训练数据集为新的测试记录选择 k 个最相似/相似的数据值
  • 此外,使用Euclidean or Manhattan distance为新测试点选择 k 个最相似的邻居。基本上,他们计算测试点和训练数据值之间的距离,然后选择 K 个最近的邻居。
  • 最后,将测试数据值分配给包含测试数据的 K 个最近邻的最大点的类或组。

K-NN 的真实例子

**问题陈述—**考虑一袋珠子(训练数据),有两种颜色——绿色和蓝色。

所以,这里有两类:绿色和蓝色。我们的任务是找到一个新的珠子“Z”会落在哪个类中。

**解决方案—**最初,我们随机选择 K 的值。现在假设 K=4。因此KNN 将使用所有训练数据值(一袋珠子)计算 Z 的距离。

此外,我们选择最接近 Z 的 4(K)个值,然后尝试分析 4 个邻居中的大多数属于哪个类。

最后Z 被分配一类空间中的大多数邻居。


KNN 在 Python 中的实现

现在,让我们试着用 KNN 的概念来解决下面的回归问题。

我们得到了一个数据集,其中包含了根据各种环境条件选择租赁自行车的人数的历史数据。

你可以在这里找到数据集

所以,让我们开始吧!


1.加载数据集

我们已经利用 Pandas 模块将数据集加载到使用pandas.read_csv()函数的环境中。

import pandas 
BIKE = pandas.read_csv("Bike.csv")

2.选择正确的功能

我们利用相关回归分析技术从数据集中选择重要变量。

corr_matrix = BIKE.loc[:,numeric_col].corr()
print(corr_matrix)

相关矩阵

               temp     atemp       hum  windspeed
temp       1.000000  0.991738  0.114191  -0.140169
atemp      0.991738  1.000000  0.126587  -0.166038
hum        0.114191  0.126587  1.000000  -0.204496
windspeed -0.140169 -0.166038 -0.204496   1.000000

由于“temp”和“atemp”高度相关我们从数据集中删除了“atemp”。

BIKE = BIKE.drop(['atemp'],axis=1)

3.分割数据集

我们已经利用 train_test_split()函数将数据集分成 80%的训练数据集和 20%的测试数据集。

#Separating the dependent and independent data variables into two data frames.
from sklearn.model_selection import train_test_split 

X = bike.drop(['cnt'],axis=1) 
Y = bike['cnt']

# Splitting the dataset into 80% training data and 20% testing data.
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=.20, random_state=0)

4.定义误差指标

由于这是一个回归问题,我们将 MAPE 定义为如下所示的误差指标

import numpy as np
def MAPE(Y_actual,Y_Predicted):
    mape = np.mean(np.abs((Y_actual - Y_Predicted)/Y_actual))*100
    return Mape

5.建立模型

sklearn.neighbors module包含实现 Knn 的KNeighborsRegressor()方法,如下所示

#Building the KNN Model on our dataset
from sklearn.neighbors import KNeighborsRegressor
KNN_model = KNeighborsRegressor(n_neighbors=3).fit(X_train,Y_train)

此外,我们使用 predict()函数来预测测试数据。

KNN_predict = KNN_model.predict(X_test) #Predictions on Testing data

6.准确性检查!

我们调用上面定义的 MAPE 函数来检查分类错误并判断模型预测的准确性。

# Using MAPE error metrics to check for the error rate and accuracy level
KNN_MAPE = MAPE(Y_test,KNN_predict)
Accuracy_KNN = 100 - KNN_MAPE
print("MAPE: ",KNN_MAPE)
print('Accuracy of KNN model: {:0.2f}%.'.format(Accuracy_KNN))

Knn 的精度评估—

MAPE:  17.443668778014253
Accuracy of KNN model: 82.56%.


结论

到此,我们就结束了这个话题。如果你遇到任何问题,欢迎在下面评论。

更多与 Python 相关的帖子,敬请关注,在此之前,祝你学习愉快!!🙂