数据集简介

2018-10-30 Tuesday    


简单来说,就是准备所需的数据,包括一些从官方下载的数据,动态生成的测试数据,以及部分经典的函数等。

简介

在进行测试时,通常需要将数据分成两部分,一部分用来作生成模型,另外一部分会用来作验证,在 SKlearn 包中提供了相关的函数。

from sklearn.cross_validation import train_test_split

X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.25, random_state = 0)

CSV

很多政府、组织公开的数据是以 Comma Separated Values, CSV 格式保存,例如 data.gov.ukcatalog.data.govwww.kaggle.com 等,这也是最常使用的数据格式。

如果是通过 Pandas 模块处理数据,那么可以直接使用 Pandas 进行处理,示例如下。

import pandas as pd

df1 = pd.DataFrame({'c1':[1,2,3], 'c2':[4,5,6]})
df1.to_csv("test.csv", index=False, sep=',')
df2 = pd.read_csv('test.csv')

df2.shape    # 显示行数以及属性数(列数)
df2.head()   # 展示前5行的数据

默认会增加一列的索引 (行名称为空),可以通过 index=False 将其关闭。

除此之外,Python 中同时也提供了一个 CSV 的标准库。

import csv

with open("test.csv", "w") as csvfile:
	writer = csv.writer(csvfile)
	writer.writerow(["index", "c1", "c2"])
	writer.writerows([[0,1,3], [1,2,3], [2,3,4]])
with open("test.csv", "r") as csvfile:
	reader = csv.reader(csvfile)
	for line in reader:
		print line

鸢尾花

用来做统计分类,数据集包括了:A) 花瓣 (Petal) 的长度和宽度;B) 花萼 (Sepal) 的长度和宽度。对应的单位是厘米,然后根据这些数据分成三类, Setosa、Versicolor、Virginica。

数据文件通过 csv 格式保存,加载之后是一个字典类型,其中的 Key 包括了如下:

  • data 主要的数据集;
  • feature_names 数据集每列对应名称,也就是花瓣长宽、花萼长宽;
  • target 分类,也就是如上的三种,使用数值 0~2 标示;
  • target_names 分类名称,通过上面的序号对应名字;
  • filename 数据文件的保存路径;
  • DESCR 数据集相关信息的描述。

可以用于分类、决策树等场景。

import sklearn.datasets as ds

print(ds.load_iris())

测试数据集

Scikit-Learn 工具包中提供的数据集,通常用来学习或者模拟算法的数据库,有很多不错的模型,详细可以参考 Dataset loading utilities

Scikit-Learn 提供了多个类型的数据集,包括了:

  • 自带的小数据集,通过 sklearn.datasets.load_<name> 加载;
  • 可在线下载的数据集,通过 sklearn.datasets.fetch_<name> 下载;
  • 计算机生成,可通过 sklearn.datasets.make_<name> 生成;
  • svm 格式数据集,通过 sklearn.datasets.load_svmlight_file(...) 加载。

如下是简单的示例。

make_blobs

用于生成具有高斯分布的 blobs 点,可以控制生成 blobs 的数量,生成样本的数量以及一系列其它属性。考虑到 blobs 的线性可分性质,适用于线性分类问题。

sklearn.datasets.make_blobs(n_samples=100, n_features=2, centers=None, cluster_std=1.0,
		center_box=(-10.0, 10.0), shuffle=True, random_state=None)

其中参数如下:
   n_samples 待生成的样本的总数。
   n_features 每个样本的特征数,会保存在返回的对象中。
   centers 表示类别数。
   cluster_std 表示每个类别的方差。

例如生成 2 类数据,其中一类比另一类具有更大的方差,可以将 cluster_std 设置为 [1.0, 3.0] ,如下是生成三类数据用于聚类 (100 个样本,每个样本有 2 个特征):

import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs

data, target = make_blobs(
	n_samples=100,             # 生成的总样本数,注意是总数
	n_features=2,              # 样本的特征数,也就是生成数据的维度,默认是2
	centers=3,                 # 总的类别,需要与如下的方差保持一致,默认是5
	cluster_std=[1.0,2.0,3.0]) # 每个类别的方差,默认是1

# 在2D图中绘制样本的散点图,每个样本颜色不同
plt.scatter(data[:,0], data[:,1], c=target);
plt.show()

其中 scatter() 函数中的 c 参数标示了分类。

centers

也可以根据 n_features 设置不同聚类的中心坐标位置,例如,当 n_features=2 时,可以设置 centers=[[0, 0], [2, 2]] ,此时会出现两个分类,其中心坐标分别是 (0, 0)(2, 2)

make_moons

用于二进制分类并且将生成一个漩涡模式,可以控制 moon 形状中的噪声量,以及要生产的样本数量,适用于能够学习非线性类边界的算法。

import matplotlib.pyplot as plt
from sklearn.datasets import make_moons

data, target = make_moons(
	n_samples=500,     # 生成的样本总数
	noise=0.05,        # 噪声的大小
	random_state=1)    # 随机状态

plt.scatter(data[:,0], data[:,1], c=target);
plt.show()

其中 random_state 的作用可以参考后面的介绍,简单来说,默认每次都会生成一个随机值,如果设置为固定值,那么每次生成的结果集都是固定的。

make_circles

用于生成一个数据集落入同心圆的二进制分类问题,适用于可以学习复杂的非线性流行的算法。

示例可以直接将上述 make_moons 替换为 make_circles 即可。

其它

random_state

实际上,这个是一个生成随机数的种子,在生成的测试数据集中可以用来生成不同的测试数据。

因为 sklearn 中很多算法都含有随机的因素,为了进行可重复的训练或者验证,那么就可以固定一个 random_state ,然后再对模型进行调参。

MNIST

MNIST 数据集来自 National Institute of Standards and Technology, NIST 美国国家标准与技术研究所,其中的训练集由来自 250 个不同人手写的数字构成,其中 50% 是高中学生, 50% 来自人口普查局的工作人员。

很多教程都是通过该数据集开始。

下载

MNIST 数据集可在 yann.lecun.com 获取, 它包含了四个部分:

Training set images: train-images-idx3-ubyte.gz (9.9 MB, 解压后 47 MB, 包含 60,000 个样本)
Training set labels: train-labels-idx1-ubyte.gz (29 KB, 解压后 60 KB, 包含 60,000 个标签)
Test set images:     t10k-images-idx3-ubyte.gz  (1.6 MB, 解压后 7.8 MB, 包含 10,000 个样本)
Test set labels:     t10k-labels-idx1-ubyte.gz  (5KB, 解压后 10 KB, 包含 10,000 个标签)

然后通过 gunzip FILE.gz 解压文件即可。

格式转换

图片是以字节的形式进行存储, 可以将其读取到 Numpy 的 array 中, 以便训练和测试算法。

import os
import struct
import numpy as np

def load_mnist(path, kind='train'):
    """Load MNIST data from `path`"""
    labels_path = os.path.join(path, '%s-labels-idx1-ubyte' % kind)
    with open(labels_path, 'rb') as lbpath:
        magic, n = struct.unpack('>II', lbpath.read(8))
        labels = np.fromfile(lbpath, dtype=np.uint8)

    images_path = os.path.join(path, '%s-images-idx3-ubyte' % kind)
    with open(images_path, 'rb') as imgpath:
        magic, num, rows, cols = struct.unpack('>IIII', imgpath.read(16))
        images = np.fromfile(imgpath, dtype=np.uint8).reshape(len(labels), 784)

    return images, labels

在 MNIST 数据集中的每张图片由 28x28 个像素点构成, 每个像素点用一个灰度值表示,在这里, 我们将 28 x 28 的像素展开为一个一维的行向量, 这些行向量就是图片数组里的行(每行 784 个值, 或者说每行就是代表了一张图片).

load_mnist() 返回两个数组, 第一个是一个 n x m 维的 NumPy array(images), 这里的 n 是样本数(行数), m 是特征数(列数). 训练数据集包含 60,000 个样本, 测试数据集包含 10,000 样本.

第二个数组 labels 包含了相应的目标变量, 也就是手写数字的类标签 (0-9)。

在 MNIST 网站中,有对数据集的描述,如下:

TRAINING SET LABEL FILE (train-labels-idx1-ubyte):

[offset] [type]          [value]          [description]
0000     32 bit integer  0x00000801(2049) magic number (MSB first)
0004     32 bit integer  60000            number of items
0008     unsigned byte   ??               label
0009     unsigned byte   ??               label
........
xxxx     unsigned byte   ??               label
The labels values are 0 to 9.12345678910

然后通过如下的代码,首先读入 magic number 以及 label 的数目;然后通过调用 fromfile() 将字节读入 Numpy array 。其中 struct.unpack>II 有两个部分:> 表示大端存储,II 表示两个无符号整数。

magic, n = struct.unpack('>II', lbpath.read(8))
labels = np.fromfile(lbpath, dtype=np.uint8)12


如果喜欢这里的文章,而且又不差钱的话,欢迎打赏个早餐 ^_^