geekdoc-python-zh/docs/realpython/numpy-scipy-pandas-correlat...

43 KiB
Raw Permalink Blame History

NumPy、SciPy 和 Pandas:与 Python 的相关性

原文:https://realpython.com/numpy-scipy-pandas-correlation-python/

相关系数量化了变量或数据集特征之间的关联。这些统计数据对于科学和技术非常重要Python 有很好的工具可以用来计算它们。SciPy 、NumPy 和 Pandas 关联方法快速、全面且有据可查。

在本教程中,您将学习:

  • 什么是皮尔森、斯皮尔曼和肯德尔相关系数
  • 如何使用 SciPy、NumPy 和 Pandas 相关函数
  • 如何用 Matplotlib 可视化数据、回归线和相关矩阵

您将从解释相关性开始,然后查看三个快速介绍性示例,最后深入研究 NumPy、SciPy 和 Pandas 相关性的细节。

免费奖励: 点击此处获取免费的 NumPy 资源指南,它会为您指出提高 NumPy 技能的最佳教程、视频和书籍。

相关性

统计学数据科学通常关注一个数据集的两个或多个变量(或特征)之间的关系。数据集中的每个数据点是一个观察,而特征是那些观察的属性或特性。

您使用的每个数据集都使用变量和观察值。例如,您可能有兴趣了解以下内容:

在上面的例子中,身高、射击精度、经验年限、工资、人口密度和国内生产总值是特征或变量。与每个玩家、雇员和每个国家相关的数据是观察值。

当数据以表格的形式表示时,表格的行通常是观察值,而列是特征。看一下这个雇员表:

名字 多年的经验 年薪
Thirty One hundred and twenty thousand
抢劫 Twenty-one One hundred and five thousand
汤姆(男子名) Nineteen Ninety thousand
常春藤 Ten Eighty-two thousand

在该表中,每一行代表一个观察结果,或者关于一个雇员(Ann、Rob、Tom 或 Ivy)的数据。每列显示所有雇员的一个属性或特征(姓名、经历或薪水)。

如果你分析一个数据集的任意两个特征,那么你会发现这两个特征之间存在某种类型的相关性。请考虑以下数字:

mmst-py-corr-1

这些图显示了三种不同形式的相关性之一:

  1. **负相关(红点):**在左边的图中y 值随着 x 值的增加而减少。这显示了强烈的负相关性,当一个特征的值对应于另一个特征的值时,就会出现这种负相关性,反之亦然。

  2. **相关性弱或无相关性(绿点):**中间的图没有明显的趋势。这是弱相关性的一种形式,当两个特征之间的关联不明显或几乎不可见时,就会出现这种情况。

  3. **正相关(蓝点):**在右边的图中y 值随着 x 值的增加而增加。这说明了强正相关,当一个特征的值对应于另一个特征的值时,就会出现这种情况,反之亦然。

下图显示了上面的 employee 表中的数据:

mmst-py-corr-6

经验和薪水之间的关系是正相关的,因为更高的经验对应着更高的薪水,反之亦然。

注意:当你分析相关性时,你应该始终记住相关性并不表示因果关系。它量化了数据集要素之间的关系强度。有时,这种关联是由几个感兴趣的特征的共同因素引起的。

相关性与均值、标准差、方差和协方差等其他统计量紧密相关。如果您想了解更多关于这些量以及如何使用 Python 计算它们的信息,请使用 Python 查看描述性统计。

有几个统计数据可以用来量化相关性。在本教程中,您将了解三个相关系数:

皮尔逊系数衡量线性相关性,而斯皮尔曼和肯德尔系数比较数据的 T2 等级。有几种 NumPy、SciPy 和 Pandas 相关函数和方法可用于计算这些系数。您也可以使用 Matplotlib 来方便地展示结果。

Remove ads

示例:NumPy 相关计算

NumPy 有很多统计例程,包括 np.corrcoef() ,返回皮尔逊相关系数矩阵。您可以从导入 NumPy 并定义两个 NumPy 数组开始。这些是类 ndarray 的实例。称他们为xy:

>>> import numpy as np
>>> x = np.arange(10, 20)
>>> x
array([10, 11, 12, 13, 14, 15, 16, 17, 18, 19])
>>> y = np.array([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> y
array([ 2,  1,  4,  5,  8, 12, 18, 25, 96, 48])

在这里,您使用 np.arange() 创建一个数组x,其中包含 10(含)到 20(不含)之间的整数。然后使用np.array()创建包含任意整数的第二个数组y

一旦有了两个长度相同的数组,就可以调用np.corrcoef()并将两个数组都作为参数:

>>> r = np.corrcoef(x, y)
>>> r
array([[1\.        , 0.75864029],
 [0.75864029, 1\.        ]])
>>> r[0, 1]
0.7586402890911867
>>> r[1, 0]
0.7586402890911869

corrcoef()返回相关矩阵,这是一个包含相关系数的二维数组。这是您刚刚创建的关联矩阵的简化版本:

 x       y

x    1.00    0.76
y    0.76    1.00

相关矩阵主对角线上的值(左上和右下)等于 1。左上角的值对应于xx的相关系数,而右下角的值是yy的相关系数。它们总是等于 1。

但是,你通常需要的是相关矩阵的左下和右上的值。这些值相等,都代表xy皮尔逊相关系数。在这种情况下,它大约是 0.76。

该图显示了上述示例的数据点和相关系数:

mmst-py-corr-5

红色方块是数据点。如您所见,该图还显示了三个相关系数的值。

示例:SciPy 相关性计算

SciPy 也有很多 scipy.stats 中包含的统计套路。您可以使用以下方法来计算前面看到的三个相关系数:

以下是如何在 Python 中使用这些函数:

>>> import numpy as np
>>> import scipy.stats
>>> x = np.arange(10, 20)
>>> y = np.array([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> scipy.stats.pearsonr(x, y)    # Pearson's r
(0.7586402890911869, 0.010964341301680832)
>>> scipy.stats.spearmanr(x, y)   # Spearman's rho
SpearmanrResult(correlation=0.9757575757575757, pvalue=1.4675461874042197e-06)
>>> scipy.stats.kendalltau(x, y)  # Kendall's tau
KendalltauResult(correlation=0.911111111111111, pvalue=2.9761904761904762e-05)

请注意,这些函数返回包含两个值的对象:

  1. 相关系数
  2. p 值

当你测试一个假设时,你在统计方法中使用 p 值。p 值是一个重要的测量值,需要深入的概率和统计知识来解释。要了解更多,你可以阅读的基础知识,或者查看一位数据科学家对 p 值的解释。

您可以提取 p 值和相关系数及其索引,作为元组的项目:

>>> scipy.stats.pearsonr(x, y)[0]    # Pearson's r
0.7586402890911869
>>> scipy.stats.spearmanr(x, y)[0]   # Spearman's rho
0.9757575757575757
>>> scipy.stats.kendalltau(x, y)[0]  # Kendall's tau
0.911111111111111

您也可以对 Spearman 和 Kendall 系数使用点符号:

>>> scipy.stats.spearmanr(x, y).correlation   # Spearman's rho
0.9757575757575757
>>> scipy.stats.kendalltau(x, y).correlation  # Kendall's tau
0.911111111111111

点符号更长,但是可读性更强,也更容易理解。

如果想同时得到皮尔逊相关系数和 p 值,那么可以解包返回值:

>>> r, p = scipy.stats.pearsonr(x, y)
>>> r
0.7586402890911869
>>> p
0.010964341301680829

这种方法利用了 Python 解包pearsonr()用这两个统计数据返回一个元组的事实。你也可以对spearmanr()kendalltau()使用这种技术,稍后你会看到。

Remove ads

示例:熊猫相关性计算

熊猫在某些情况下比 NumPy 和 SciPy 更方便计算统计数据。提供了 SeriesDataFrame 实例的统计方法。例如,给定两个具有相同项数的Series对象,您可以对其中一个调用 .corr() ,并将另一个作为第一个参数:

>>> import pandas as pd
>>> x = pd.Series(range(10, 20))
>>> x
0    10
1    11
2    12
3    13
4    14
5    15
6    16
7    17
8    18
9    19
dtype: int64
>>> y = pd.Series([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> y
0     2
1     1
2     4
3     5
4     8
5    12
6    18
7    25
8    96
9    48
dtype: int64
>>> x.corr(y)                     # Pearson's r
0.7586402890911867
>>> y.corr(x)
0.7586402890911869
>>> x.corr(y, method='spearman')  # Spearman's rho
0.9757575757575757
>>> x.corr(y, method='kendall')   # Kendall's tau
0.911111111111111

这里,您使用.corr()来计算所有三个相关系数。您可以用参数method定义所需的统计数据,该参数可以取几个值中的一个:

  • 'pearson'
  • 'spearman'
  • 'kendall'
  • 可赎回债券

可调用对象可以是任何函数、方法或带有.__call__()对象,它接受两个一维数组并返回一个浮点数。

线性相关性

线性相关性测量变量或数据集特征与线性函数之间的数学关系的接近程度。如果两个特征之间的关系更接近某个线性函数,那么它们的线性相关性更强,相关系数的绝对值更高。

皮尔逊相关系数

考虑一个具有两个特征的数据集: xy 。每个特征有 n 个值,所以 xy 是 n 元组。假设来自 x 的第一个值 x₁对应于来自 y 的第一个值 y₁来自 x 的第二个值 x₂对应于来自 y 的第二个值 y₂以此类推。然后有 n 对对应的值:(x₁y₁)(x₂y₂),等等。这些 x-y 对中的每一对代表一个单独的观察。

皮尔逊(乘积矩)相关系数是两个特征之间线性关系的度量。它是 xy 的协方差与它们标准差的乘积之比。它通常用字母 r 表示,并被称为皮尔逊 r 。您可以用下面的等式用数学方法表示该值:

r =σᵢ((xᵢmean(x))(yᵢ均值(y)))(√σᵢ(xᵢ均值(x))√σᵢ(yᵢ均值(y)) )⁻

这里I 取值 12n。xy平均值用 mean(x)和 mean(y)表示。该公式表明,如果较大的 x 值倾向于对应于较大的 y 值,反之亦然,则 r 为正。另一方面,如果较大的 x 值通常与较小的 y 值相关联,反之亦然,则 r 为负。

以下是关于皮尔逊相关系数的一些重要事实:

  • 皮尔逊相关系数可以是 1 ≤ r ≤ 1 范围内的任何实数值。

  • 最大值 r = 1 对应于 xy 之间存在完美的正线性关系的情况。换句话说,较大的 x 值对应于较大的 y 值,反之亦然。

  • 值 r > 0 表示 xy 之间正相关。

  • 值 r = 0 对应于 xy 之间没有线性关系的情况。

  • 值 r < 0 indicates negative correlation between xy

  • 最小值 r = 1 对应于 xy 之间存在完美的负线性关系的情况。换句话说,较大的 x 值对应于较小的 y 值,反之亦然。

上述事实可以归纳在下表中:

皮尔逊 r 值 xy 之间的相关性
等于 1 完美正线性关系
大于 0 正相关
等于 0 没有线性关系
小于 0 负相关
等于-1 完美负线性关系

简而言之r 的绝对值越大相关性越强越接近线性函数。r 的绝对值越小,表示相关性越弱。

线性回归:SciPy 实现

线性回归是寻找尽可能接近特征间实际关系的线性函数的过程。换句话说,您确定了最能描述特征之间关联的线性函数。这个线性函数也被称为回归线

可以用 SciPy 实现线性回归。您将获得最接近两个数组之间关系的线性函数,以及皮尔逊相关系数。首先,您需要导入库并准备一些要使用的数据:

>>> import numpy as np
>>> import scipy.stats
>>> x = np.arange(10, 20)
>>> y = np.array([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])

在这里,您导入numpyscipy.stats并定义变量xy

可以使用 scipy.stats.linregress() 对两个长度相同的数组进行线性回归。您应该将数组作为参数提供,并使用点标记法获得输出:

>>> result = scipy.stats.linregress(x, y)
>>> result.slope
7.4363636363636365
>>> result.intercept
-85.92727272727274
>>> result.rvalue
0.7586402890911869
>>> result.pvalue
0.010964341301680825
>>> result.stderr
2.257878767543913

就是这样!您已经完成了线性回归,并获得了以下结果:

  • .slope : 回归线的斜率
  • .intercept : 回归线的截距
  • **.pvalue:**p 值
  • .stderr : 估计梯度的标准误差

您将在后面的小节中学习如何可视化这些结果。

您也可以向linregress()提供单个参数,但它必须是一个二维数组,其中一个维度的长度为 2:

>>> xy = np.array([[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
...                [2, 1, 4, 5, 8, 12, 18, 25, 96, 48]])
>>> scipy.stats.linregress(xy)
LinregressResult(slope=7.4363636363636365, intercept=-85.92727272727274, rvalue=0.7586402890911869, pvalue=0.010964341301680825, stderr=2.257878767543913)

结果与前面的例子完全相同,因为xy包含的数据与xy包含的数据相同。linregress()xy的第一行作为一个特征,第二行作为另一个特征。

**注意:**在上面的例子中,scipy.stats.linregress()认为行是特征,列是观察值。那是因为有两排。

机器学习中通常的做法是相反的:行是观察,列是特征。许多机器学习库,如熊猫、 Scikit-LearnKeras 等,都遵循这一惯例。

在分析数据集中的相关性时,您应该注意观察值和要素是如何表示的。

如果您提供xy转置,或者一个 10 行 2 列的 NumPy 数组,linregress()将返回相同的结果。在 NumPy 中,您可以通过多种方式转置矩阵:

你可以这样移调xy:

>>> xy.T
array([[10,  2],
 [11,  1],
 [12,  4],
 [13,  5],
 [14,  8],
 [15, 12],
 [16, 18],
 [17, 25],
 [18, 96],
 [19, 48]])

现在你知道如何得到转置,你可以传递一个给linregress()。第一列是一个特征,第二列是另一个特征:

>>> scipy.stats.linregress(xy.T)
LinregressResult(slope=7.4363636363636365, intercept=-85.92727272727274, rvalue=0.7586402890911869, pvalue=0.010964341301680825, stderr=2.257878767543913)

这里用.T得到xy的转置。linregress()的工作方式与xy及其转置相同。它通过沿着长度为 2 的维度分割数组来提取特征。

您还应该注意数据集是否包含缺失值。在数据科学和机器学习中,您经常会发现一些丢失或损坏的数据。在 Python、NumPy、SciPy 和 Pandas 中表示它的通常方式是使用 NaN而不是数字值。但是如果您的数据包含nan值,那么您将无法使用linregress()得到有用的结果:

>>> scipy.stats.linregress(np.arange(3), np.array([2, np.nan, 5]))
LinregressResult(slope=nan, intercept=nan, rvalue=nan, pvalue=nan, stderr=nan)

在这种情况下,结果对象返回所有的nan值。在 Python 中,nan是一个特殊的浮点值,可以通过使用以下任意一种方法获得:

你也可以用 math.isnan() 或者 numpy.isnan() 来检查一个变量是否对应nan

Remove ads

皮尔逊相关性:NumPy 和 SciPy 实现

你已经看到了如何用corrcoef()pearsonr()得到皮尔逊相关系数:

>>> r, p = scipy.stats.pearsonr(x, y)
>>> r
0.7586402890911869
>>> p
0.010964341301680829
>>> np.corrcoef(x, y)
array([[1\.        , 0.75864029],
 [0.75864029, 1\.        ]])

注意,如果你给pearsonr()提供一个带有nan值的数组,你将得到一个 ValueError

很少有额外的细节值得考虑。首先,回想一下np.corrcoef()可以接受两个 NumPy 数组作为参数。相反,您可以传递一个具有与参数相同值的二维数组:

>>> np.corrcoef(xy)
array([[1\.        , 0.75864029],
 [0.75864029, 1\.        ]])

这个例子和前面的例子的结果是一样的。同样,xy的第一行代表一个特性,而第二行代表另一个特性。

如果您想要获得三个特征的相关系数,那么您只需提供一个带有三行作为参数的数值二维数组:

>>> xyz = np.array([[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
...                 [2, 1, 4, 5, 8, 12, 18, 25, 96, 48],
...                 [5, 3, 2, 1, 0, -2, -8, -11, -15, -16]])
>>> np.corrcoef(xyz)
array([[ 1\.        ,  0.75864029, -0.96807242],
 [ 0.75864029,  1\.        , -0.83407922],
 [-0.96807242, -0.83407922,  1\.        ]])

您将再次获得相关矩阵,但这个矩阵将比前几个大:

 x        y        z

x     1.00     0.76    -0.97
y     0.76     1.00    -0.83
z    -0.97    -0.83     1.00

这是因为corrcoef()xyz的每一行视为一个特征。值0.76xyz的前两个特征的相关系数。这与前面例子中的xy的系数相同。-0.97表示第一个和第三个特征的皮尔逊 r-0.83是后两个特征的皮尔逊 r。

下面是一个有趣的例子,说明当您将nan数据传递给corrcoef()时会发生什么:

>>> arr_with_nan = np.array([[0, 1, 2, 3],
...                          [2, 4, 1, 8],
...                          [2, 5, np.nan, 2]])
>>> np.corrcoef(arr_with_nan)
array([[1\.        , 0.62554324,        nan],
 [0.62554324, 1\.        ,        nan],
 [       nan,        nan,        nan]])

在这个例子中,arr_with_nan的前两行(或特征)是可以的,但是第三行[2, 5, np.nan, 2]包含一个nan值。不包括带nan的特性的都算好了。然而,取决于最后一行的结果是nan

默认情况下,numpy.corrcoef()将行视为特征,将列视为观察值。如果您想要相反的行为,这在机器学习中广泛使用,那么使用参数rowvar=False:

>>> xyz.T
array([[ 10,   2,   5],
 [ 11,   1,   3],
 [ 12,   4,   2],
 [ 13,   5,   1],
 [ 14,   8,   0],
 [ 15,  12,  -2],
 [ 16,  18,  -8],
 [ 17,  25, -11],
 [ 18,  96, -15],
 [ 19,  48, -16]])
>>> np.corrcoef(xyz.T, rowvar=False)
array([[ 1\.        ,  0.75864029, -0.96807242],
 [ 0.75864029,  1\.        , -0.83407922],
 [-0.96807242, -0.83407922,  1\.        ]])

该数组与您之前看到的数组相同。这里,您应用了不同的约定,但是结果是相同的。

皮尔逊相关性:熊猫实施

到目前为止,您已经使用了SeriesDataFrame对象方法来计算相关系数。让我们更详细地探讨这些方法。首先,您需要导入熊猫并创建一些SeriesDataFrame的实例:

>>> import pandas as pd
>>> x = pd.Series(range(10, 20))
>>> x
0    10
1    11
2    12
3    13
4    14
5    15
6    16
7    17
8    18
9    19
dtype: int64
>>> y = pd.Series([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> y
0     2
1     1
2     4
3     5
4     8
5    12
6    18
7    25
8    96
9    48
dtype: int64
>>> z = pd.Series([5, 3, 2, 1, 0, -2, -8, -11, -15, -16])
>>> z
0     5
1     3
2     2
3     1
4     0
5    -2
6    -8
7   -11
8   -15
9   -16
dtype: int64
>>> xy = pd.DataFrame({'x-values': x, 'y-values': y})
>>> xy
 x-values  y-values
0        10         2
1        11         1
2        12         4
3        13         5
4        14         8
5        15        12
6        16        18
7        17        25
8        18        96
9        19        48
>>> xyz = pd.DataFrame({'x-values': x, 'y-values': y, 'z-values': z})
>>> xyz
 x-values  y-values  z-values
0        10         2         5
1        11         1         3
2        12         4         2
3        13         5         1
4        14         8         0
5        15        12        -2
6        16        18        -8
7        17        25       -11
8        18        96       -15
9        19        48       -16

您现在有三个名为xyzSeries对象。你也有两个DataFrame对象,xyxyz

**注意:**当您使用DataFrame实例时,您应该知道行是观察值,列是特征。这与机器学习中的惯例是一致的。

您已经学习了如何使用.corr()Series对象来获得皮尔逊相关系数:

>>> x.corr(y)
0.7586402890911867

这里,您对一个对象调用.corr(),并将另一个作为第一个参数传递。

如果您提供一个nan值,那么.corr()将仍然工作,但是它将排除包含nan值的观察值:

>>> u, u_with_nan = pd.Series([1, 2, 3]), pd.Series([1, 2, np.nan, 3])
>>> v, w = pd.Series([1, 4, 8]), pd.Series([1, 4, 154, 8])
>>> u.corr(v)
0.9966158955401239
>>> u_with_nan.corr(w)
0.9966158955401239

在这两个例子中,你会得到相同的相关系数。这是因为.corr()忽略了一对缺少值的值(np.nan154)。

也可以将 .corr()DataFrame对象搭配使用。您可以使用它来获得它们的列的相关矩阵:

>>> corr_matrix = xy.corr()
>>> corr_matrix
 x-values  y-values
x-values   1.00000   0.75864
y-values   0.75864   1.00000

得到的相关矩阵是DataFrame的一个新实例,保存了列xy['x-values']xy['y-values']的相关系数。这种带标签的结果通常非常便于使用,因为您可以使用它们的标签或整数位置索引来访问它们:

>>> corr_matrix.at['x-values', 'y-values']
0.7586402890911869
>>> corr_matrix.iat[0, 1]
0.7586402890911869

此示例显示了访问值的两种方式:

  1. 使用 .at[] 通过行和列标签访问单个值。
  2. 使用 .iat[] 通过行和列的位置访问一个值。

对于包含三列或更多列的DataFrame对象,您可以以同样的方式应用.corr():

>>> xyz.corr()
 x-values  y-values  z-values
x-values  1.000000  0.758640 -0.968072
y-values  0.758640  1.000000 -0.834079
z-values -0.968072 -0.834079  1.000000

您将获得具有以下相关系数的相关矩阵:

  • 0.758640x-valuesy-values
  • -0.968072x-valuesz-values
  • -0.834079y-valuesz-values

另一个有用的方法是 .corrwith() ,它允许您计算一个 DataFrame 对象的行或列与作为第一个参数传递的另一个系列或 DataFrame 对象之间的相关系数:

>>> xy.corrwith(z)
x-values   -0.968072
y-values   -0.834079
dtype: float64

在这种情况下,结果是一个新的Series对象,它具有列xy['x-values']的相关系数和z的值,以及xy['y-values']z的系数。

.corrwith()有一个可选参数axis,用于指定是用列还是行来表示特征。axis的默认值为 0也默认为表示特征的列。还有一个drop参数,它指示如何处理丢失的值。

.corr().corrwith()都有可选参数method来指定想要计算的相关系数。默认情况下会返回皮尔逊相关系数,因此在这种情况下不需要提供它。

Remove ads

等级相关性

等级相关性比较与两个变量或数据集特征相关的数据的等级或排序。如果排序相似,那么相关性是强的、正的和高的。然而,如果顺序接近颠倒,那么相关性是强的、负的和低的。换句话说,等级相关性只与值的顺序有关,而与数据集中的特定值无关。

为了说明线性相关和等级相关之间的区别,请考虑下图:

mmst-py-corr-2

左图在 xy 之间有一个完美的正线性关系,所以 r = 1。中间的图显示正相关右边的图显示负相关。然而它们都不是线性函数因此 r 不同于 1 或 1。

当你只看等级的时候,这三种关系都是完美的!左侧和中间的图显示了较大的 x 值总是对应于较大的 y 值的观察结果。这是完美的正等级相关。右边的图说明了相反的情况,这是完美的负秩相关。

斯皮尔曼相关系数

两个特征之间的 Spearman 相关系数是它们等级值之间的 Pearson 相关系数。它的计算方式与皮尔逊相关系数相同,但考虑了他们的排名而不是他们的价值。它通常用希腊字母 rho (ρ)表示,并被称为斯皮尔曼的 rho

假设您有两个 n 元组, xy ,其中(x₁, y₁), (x₂, y₂), …是作为对应值对的观察值。可以用与皮尔逊系数相同的方法计算斯皮尔曼相关系数ρ。您将使用等级而不是来自 xy 的实际值。

以下是关于斯皮尔曼相关系数的一些重要事实:

您可以用 Python 计算 Spearman 的 rho方法与计算 Pearson 的 r 非常相似。

肯德尔相关系数

让我们从考虑两个 n 元组开始, xy 。每个 x-y 对(x₁, y₁), (x₂, y₂), …都是一个单独的观察值。一对观测值(xᵢyᵢ)和(xⱼyⱼ),其中 i < j将是三件事之一:

  • 如果(xᵢ > xⱼ和 yᵢ > yⱼ)或(xᵢ < xⱼ和 yᵢ < yⱼ)中的任何一个
  • 不和谐如果是(xᵢ < xⱼ和 yᵢ > yⱼ)或者(xᵢ > xⱼ和 yᵢ < yⱼ)
  • 如果在 x (xᵢ = xⱼ)或 y (yᵢ = yⱼ)出现平局,则不会出现

肯德尔相关系数比较一致和不一致数据对的数量。该系数基于相对于 x-y 对数量的一致和不一致对的计数差异。它通常用希腊字母 tau (τ)表示,并被称为肯德尔的 tau

根据 scipy.stats官方文件,肯德尔相关系数计算为τ=(n⁺-n⁻)/√((n⁺+n⁻+nˣ)(n⁺+n⁻+nʸ),其中:

  • n⁺是和谐对的数量
  • n⁻是不和谐对的数量
  • nˣ是仅在 x 中的联系数
  • nʸ是仅在 y 的联系数

如果在 xy 都出现平局,那么它不包括在 nˣ或 nʸ.

关于肯德尔秩相关系数的维基百科页面给出了如下表达式:τ=(2/(n(n1)))σᵢⱼ(sign(xᵢxⱼ)sign(yᵢyⱼ)对于 i < j其中 i = 12n1j = 23n符号函数 sign(z)如果 z < 0 则为 1如果 z = 0 则为 0如果 z > 0 则为 1。n(n1)/2 是 x-y 对的总数。

关于肯德尔相关系数的一些重要事实如下:

  • 它可以取 1 ≤ τ ≤ 1 范围内的实值。

  • 其最大值τ = 1 对应于 xy 中对应值的秩相同的情况。换句话说,所有的配对都是一致的。

  • 其最小值τ= 1 对应于 x 中的等级与 y 中的等级相反的情况。换句话说,所有对都是不和谐的。

可以用 Python 计算 Kendall 的 tau类似于计算 Pearson 的 r。

Remove ads

等级:SciPy 实现

您可以使用scipy.stats来确定数组中每个值的等级。首先,您将导入库并创建 NumPy 数组:

>>> import numpy as np
>>> import scipy.stats
>>> x = np.arange(10, 20)
>>> y = np.array([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> z = np.array([5, 3, 2, 1, 0, -2, -8, -11, -15, -16])

现在您已经准备好了数据,您可以使用 scipy.stats.rankdata() 来确定 NumPy 数组中每个值的排名:

>>> scipy.stats.rankdata(x)
array([ 1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.])
>>> scipy.stats.rankdata(y)
array([ 2.,  1.,  3.,  4.,  5.,  6.,  7.,  8., 10.,  9.])
>>> scipy.stats.rankdata(z)
array([10.,  9.,  8.,  7.,  6.,  5.,  4.,  3.,  2.,  1.])

数组xz是单调的,因此它们的秩也是单调的。y中的最小值是1,对应的是等级1。第二小的是2,对应的是排名2。最大的值是96,它对应于最大的等级10,因为数组中有 10 个项目。

rankdata()有可选参数method。这告诉 Python 如果数组中有平局该怎么办(如果两个或更多值相等)。默认情况下,它会为他们分配平均等级:

>>> scipy.stats.rankdata([8, 2, 0, 2])
array([4\. , 2.5, 1\. , 2.5])

有两个值为2的元素,它们的等级为2.03.0。值0的等级为1.0,值8的等级为4.0。然后,值为2的两个元素将获得相同的等级2.5

rankdata()nan值为大值:

>>> scipy.stats.rankdata([8, np.nan, 0, 2])
array([3., 4., 1., 2.])

在这种情况下,值np.nan对应于最大等级4.0。你也可以用 np.argsort() 获得军衔:

>>> np.argsort(y) + 1
array([ 2,  1,  3,  4,  5,  6,  7,  8, 10,  9])

argsort()返回数组项在排序数组中的索引。这些索引是从零开始的,所以你需要给它们都加上1

等级关联:NumPy 和 SciPy 实现

可以用scipy.stats.spearmanr()计算斯皮尔曼相关系数:

>>> result = scipy.stats.spearmanr(x, y)
>>> result
SpearmanrResult(correlation=0.9757575757575757, pvalue=1.4675461874042197e-06)
>>> result.correlation
0.9757575757575757
>>> result.pvalue
1.4675461874042197e-06
>>> rho, p = scipy.stats.spearmanr(x, y)
>>> rho
0.9757575757575757
>>> p
1.4675461874042197e-06

spearmanr()返回一个包含 Spearman 相关系数和 p 值的对象。如您所见,您可以通过两种方式访问特定值:

  1. 使用点符号(result.correlationresult.pvalue)
  2. 使用 Python 解包(rho, p = scipy.stats.spearmanr(x, y))

如果提供包含与xyspearmanr()相同数据的二维数组xy,也可以得到相同的结果:

>>> xy = np.array([[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
...                [2, 1, 4, 5, 8, 12, 18, 25, 96, 48]])
>>> rho, p = scipy.stats.spearmanr(xy, axis=1)
>>> rho
0.9757575757575757
>>> p
1.4675461874042197e-06

xy第一行是一个特征,第二行是另一个特征。您可以对此进行修改。可选参数axis决定是列(axis=0)还是行(axis=1)表示特征。默认行为是行是观测值,列是要素。

另一个可选参数nan_policy定义了如何处理nan值。它可以取三个值之一:

  • 如果输入中有一个nan值,则 'propagate' 返回nan。这是默认行为。
  • 如果输入中有一个nan值,则 'raise' 会产生一个ValueError
  • 'omit' 忽略带有nan值的观测值。

如果您提供一个包含两个以上要素的二维数组,那么您将获得相关矩阵和 p 值矩阵:

>>> xyz = np.array([[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
...                 [2, 1, 4, 5, 8, 12, 18, 25, 96, 48],
...                 [5, 3, 2, 1, 0, -2, -8, -11, -15, -16]])
>>> corr_matrix, p_matrix = scipy.stats.spearmanr(xyz, axis=1)
>>> corr_matrix
array([[ 1\.        ,  0.97575758, -1\.        ],
 [ 0.97575758,  1\.        , -0.97575758],
 [-1\.        , -0.97575758,  1\.        ]])
>>> p_matrix
array([[6.64689742e-64, 1.46754619e-06, 6.64689742e-64],
 [1.46754619e-06, 6.64689742e-64, 1.46754619e-06],
 [6.64689742e-64, 1.46754619e-06, 6.64689742e-64]])

相关矩阵中的值-1示出了第一和第三特征具有完美的负秩相关,即第一行中的较大值总是对应于第三行中的较小值。

你可以用kendalltau()得到肯德尔相关系数:

>>> result = scipy.stats.kendalltau(x, y)
>>> result
KendalltauResult(correlation=0.911111111111111, pvalue=2.9761904761904762e-05)
>>> result.correlation
0.911111111111111
>>> result.pvalue
2.9761904761904762e-05
>>> tau, p = scipy.stats.kendalltau(x, y)
>>> tau
0.911111111111111
>>> p
2.9761904761904762e-05

kendalltau()的工作方式很像spearmanr()。它接受两个一维数组,有可选参数nan_policy,并返回一个包含相关系数和 p 值的对象。

但是,如果你只提供一个二维数组作为参数,那么kendalltau()将会引发一个 TypeError 。如果你传递两个相同形状的多维数组,那么它们会在计算前被展平。

Remove ads

等级关联:熊猫实现

你可以用熊猫来计算斯皮尔曼和肯德尔相关系数。就像之前一样,首先导入pandas并创建一些SeriesDataFrame实例:

>>> import pandas as pd
>>> x, y, z = pd.Series(x), pd.Series(y), pd.Series(z)
>>> xy = pd.DataFrame({'x-values': x, 'y-values': y})
>>> xyz = pd.DataFrame({'x-values': x, 'y-values': y, 'z-values': z})

现在您有了这些熊猫对象,您可以使用.corr().corrwith(),就像您在计算皮尔逊相关系数时所做的那样。你只需要用可选参数method指定想要的相关系数,默认为'pearson'

要计算 Spearman 的 rho请通过method=spearman:

>>> x.corr(y, method='spearman')
0.9757575757575757
>>> xy.corr(method='spearman')
 x-values  y-values
x-values  1.000000  0.975758
y-values  0.975758  1.000000
>>> xyz.corr(method='spearman')
 x-values  y-values  z-values
x-values  1.000000  0.975758 -1.000000
y-values  0.975758  1.000000 -0.975758
z-values -1.000000 -0.975758  1.000000
>>> xy.corrwith(z, method='spearman')
x-values   -1.000000
y-values   -0.975758
dtype: float64

如果你想要肯德尔的τ,那么你用method=kendall:

>>> x.corr(y, method='kendall')
0.911111111111111
>>> xy.corr(method='kendall')
 x-values  y-values
x-values  1.000000  0.911111
y-values  0.911111  1.000000
>>> xyz.corr(method='kendall')
 x-values  y-values  z-values
x-values  1.000000  0.911111 -1.000000
y-values  0.911111  1.000000 -0.911111
z-values -1.000000 -0.911111  1.000000
>>> xy.corrwith(z, method='kendall')
x-values   -1.000000
y-values   -0.911111
dtype: float64

如您所见,与 SciPy 不同,您可以使用单一的二维数据结构(dataframe)。

相关性的可视化

数据可视化在统计学和数据科学中非常重要。它可以帮助您更好地理解数据,并让您更好地了解要素之间的关系。在本节中,您将学习如何用 x-y 图直观地表示两个要素之间的关系。您还将使用热图来可视化关联矩阵。

您将学习如何准备数据和获得某些可视化表示,但不会涉及许多其他解释。要深入了解 Matplotlib请查看 Python 使用 Matplotlib 绘图(指南)。还可以看看官方文档解剖 Matplotlib

要开始,首先导入matplotlib.pyplot:

>>> import matplotlib.pyplot as plt
>>> plt.style.use('ggplot')

这里,您使用plt.style.use('ggplot')来设置图形的样式。如果你愿意,可以跳过这一行。

您将使用前面章节中的数组xyzxyz。您可以再次创建它们以减少滚动次数:

>>> import numpy as np
>>> import scipy.stats
>>> x = np.arange(10, 20)
>>> y = np.array([2, 1, 4, 5, 8, 12, 18, 25, 96, 48])
>>> z = np.array([5, 3, 2, 1, 0, -2, -8, -11, -15, -16])
>>> xyz = np.array([[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
...                 [2, 1, 4, 5, 8, 12, 18, 25, 96, 48],
...                 [5, 3, 2, 1, 0, -2, -8, -11, -15, -16]])

现在你已经得到了数据,你可以开始绘图了。

带回归线的 X-Y 图

首先,您将看到如何使用回归线、其方程和皮尔逊相关系数创建 x-y 图。用linregress()可以得到回归线的斜率和截距,以及相关系数:

>>> slope, intercept, r, p, stderr = scipy.stats.linregress(x, y)

现在你有了你需要的所有值。也可以用回归线的方程和相关系数的值得到字符串。为此f 弦非常方便:

>>> line = f'Regression line: y={intercept:.2f}+{slope:.2f}x, r={r:.2f}'
>>> line
'Regression line: y=-85.93+7.44x, r=0.76'

现在,用 .plot() 创建 x-y 图:

fig, ax = plt.subplots()
ax.plot(x, y, linewidth=0, marker='s', label='Data points')
ax.plot(x, intercept + slope * x, label=line)
ax.set_xlabel('x')
ax.set_ylabel('y')
ax.legend(facecolor='white')
plt.show()

您的输出应该如下所示:

mmst-py-corr-3

红色方块代表观察值,而蓝色线是回归线。图例中列出了它的方程以及相关系数。

Remove ads

相关矩阵的热图

当你有很多特征时,相关矩阵会变得很大很混乱!幸运的是,您可以将它直观地呈现为热图,其中每个字段都有与其值对应的颜色。你需要相关矩阵:

>>> corr_matrix = np.corrcoef(xyz).round(decimals=2)
>>> corr_matrix
array([[ 1\.  ,  0.76, -0.97],
 [ 0.76,  1\.  , -0.83],
 [-0.97, -0.83,  1\.  ]])

.round() 对相关矩阵中的数字取整会很方便,因为它们将显示在热图上。

最后,使用 .imshow() 和相关矩阵作为参数创建您的热图:

fig, ax = plt.subplots()
im = ax.imshow(corr_matrix)
im.set_clim(-1, 1)
ax.grid(False)
ax.xaxis.set(ticks=(0, 1, 2), ticklabels=('x', 'y', 'z'))
ax.yaxis.set(ticks=(0, 1, 2), ticklabels=('x', 'y', 'z'))
ax.set_ylim(2.5, -0.5)
for i in range(3):
    for j in range(3):
        ax.text(j, i, corr_matrix[i, j], ha='center', va='center',
                color='r')
cbar = ax.figure.colorbar(im, ax=ax, format='% .2f')
plt.show()

您的输出应该如下所示:

mmst-py-corr-4

结果是一个带有系数的表格。这看起来有点像熊猫输出彩色背景。颜色有助于您理解输出。在本例中,黄色代表数字 1绿色对应 0.76,紫色代表负数。

结论

您现在知道了相关系数是测量变量或数据集特征之间关联的统计数据。它们在数据科学和机器学习中非常重要。

现在,您可以使用 Python 来计算:

  • 皮尔逊积差相关系数
  • 斯皮尔曼的等级相关系数
  • 肯德尔的等级相关系数

现在,您可以使用 NumPy、SciPy 和 Pandas 相关函数和方法来有效地计算这些(和其他)统计数据,即使在处理大型数据集时也是如此。您还知道如何使用 Matplotlib 图和热图来可视化数据、回归线和相关矩阵。

如果您有任何问题或意见,请在下面的评论区提出!*******