Python快速实战机器学习之数据预处理

2020-02-19     机器学习与数据分析

前言

机器学习是如今人工智能时代背景下一个重要的领域,它应用广泛,如推荐系统,文本分析,图像识别,语言翻译等等。要想学通这个大的领域不是一件容易的事情,这个“Python快速实战机器学习”系列,用Python代码实践机器学习里面的算法,旨在理论和实践同时进行,快速掌握知识。



本文概要

1、学会用pandas导入数据;

2、学会用matplotlib可视化数据;

3、学会用sklearn给标签编码。

4、学会用sklearn划分数据集。

5、学会用sklearn进行特征缩放。

导入数据

import pandas as pd
df = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',header=None)
df.tail()

我们使用pandas读取数据,然后通过pandas中的tail方法输出最后五行数据,看一下Iris数据集格式:


这是一个来自叫做“UCI Machine Learning Repository”数据集。UCI Machine Learning Repository:它是网络中最古老的数据集源之一,是寻找各种有趣数据集的第一选择。在这里,尽管数据集都是用户自行贡献的,但清洁程度仍然很高。此外,你可以直接从 UCI Machine Learning Repository 上下载数据,无需注册。


这个数据集是关于鸢尾花分类的问题,一个150个数据,第一列是编号,第二列到第五列是鸢尾花的各种参数,也叫做“特征(features)”是我们判断鸢尾花属于哪种的依据。最后一列就是鸢尾花的种类。

数据可视化


import numpy as np
import matplotlib.pyplot as plt
Y = df.iloc[0:100,4].values
X = df.iloc[0:100,[0,2]].values
plt.scatter(X[:50,0], X[:50,1], color='red', marker = 'o', label = 'setosa')
plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker = 'x', label = 'versicolor')
plt.xlabel('petal length')
plt.ylabel('sepal length')
plt.legend(loc='upper left')
plt.show()

我们抽取出前100条样本,这正好是Setosa(前五十个数据)和Versicolor(后五十个数据)对应的样本,我们将Versicolor对应的数据作为类别1,Setosa对应的作为-1。对于特征,我们抽取出sepal length和petal length两维度特征,然后用散点图对数据进行可视化:


标签编码

from sklearn.preprocessing import LabelEncoder
labelencoder_Y = LabelEncoder()
Y =  labelencoder_Y.fit_transform(Y)

我们使用sklearn中的preprocessing模块中LabelEncoder函数给鸢尾花的种类Y编码,因为在编码之前,Y存储的是鸢尾花的名字,也就是字符串变量。我们无法用字符串变量进行数值计算,因此我们需要把它变成0,1,2这种格式的数据。大家可以打印编码后的Y来查看编码的效果。


划分数据

from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size = 0.2, random_state = 0)
print (X_train.shape)
print (X_test.shape)

我们使用sklearn中的切分数据集的模块,model_selection来完成训练集和测试集的划分。一般而言我们随机从整个数据集中找到80%的数据作为训练集,另外20%的数据作为测试集。一个更加严谨的办法是将整个数据集随机划分成五份,然后依次用其中的一份作为测试集,另外四份合并作为训练集,对算法运行五次,最后取五次的平均值作为最终的结果。这里我们只用一次,作为演示。大家可以看到我们打印了训练集和数据集的形状,的确按照八二分。


特征缩放

from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.fit_transform(X_test)

由于我们的特征不止一个维度,每个维度之间没有同一个刻度,会导致两个维度之间的数据差距特别大。可能一个维度的数据是0.1,0.2这种小于1的数字;而另一个维度是1000,2000这种非常大的数字。因此,我们需要给特征缩放,让他们都在同一个尺度,方便后面进行模型计算。

文章来源: https://twgreatdaily.com/zh-hans/cuW5YXABgx9BqZZI121d.html