文档章节

python:常用的几种预处理方法

soul_mate
 soul_mate
发布于 2017/05/08 13:28
字数 653
阅读 46
收藏 0

标准化

变换后各维特征有0均值,单位方差。也叫z-score规范化(零均值规范化)。计算方式是将特征值减去均值,除以标准差。

 
  1. from sklearn.preprocessing import scale
  2. X = np.array([[ 1., -1., 2.],[ 2., 0., 0.],[ 0., 1., -1.]])
  3. scale(X)

一般会把train和test集放在一起做标准化,或者在train集上做标准化后,用同样的标准化器去标准化test集,此时可以用scaler

 
  1. from sklearn.preprocessing import StandardScaler
  2. scaler = StandardScaler().fit(train)
  3. scaler.transform(train)
  4. scaler.transform(test)

最小-最大规范化

最小-最大规范化对原始数据进行线性变换,变换到[0,1]区间(也可以是其他固定最小最大值的区间)

 
  1. min_max_scaler = sklearn.preprocessing.MinMaxScaler()
  2. min_max_scaler.fit_transform(X_train)

规范化:正则化

规范化是将不同变化范围的值映射到相同的固定范围,常见的是[0,1],此时也称为归一化。《机器学习》周志华

 
  1. X = [[ 1, -1, 2],[ 2, 0, 0], [ 0, 1, -1]]
  2. sklearn.preprocessing.normalize(X, norm='l2')
 
  1. array([[ 0.40, -0.40, 0.81], [ 1, 0, 0], [ 0, 0.70, -0.70]])

可以发现对于每一个样本都有,0.4^2+0.4^2+0.81^2=1,这就是L2 norm,变换后每个样本的各维特征的平方和为1。类似地,L1 norm则是变换后每个样本的各维特征的绝对值和为1。还有max norm,则是将每个样本的各维特征除以该样本各维特征的最大值。
在度量样本之间相似性时,如果使用的是二次型kernel,需要做Normalization

特征二值化

给定阈值,将特征转换为0/1

 
  1. binarizer = sklearn.preprocessing.Binarizer(threshold=1.1)
  2. binarizer.transform(X)

标签二值化

 
  1. from sklearn import preprocessing
  2. lb = preprocessing.LabelBinarizer()
  3. lb.fit([1, 2, 6, 4, 2])
  4. lb.classes_
  5. array([1, 2, 4, 6])
  6. lb.transform([1, 6])#必须[1, 2, 6, 4, 2]里面
  7. array([[1, 0, 0, 0],
  8. [0, 0, 0, 1]])

类别特征编码

有时候特征是类别型的,而一些算法的输入必须是数值型,此时需要对其编码。
下面这个例子,第一维特征有两种值0和1,用两位去编码。第二维用三位,第三维用四位。

 
  1. enc = preprocessing.OneHotEncoder()
  2. enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])
  3. enc.transform([[0, 1, 3]]).toarray() #array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])

标签编码

 
  1. le = sklearn.preprocessing.LabelEncoder()
  2. le.fit([1, 2, 2, 6])
  3. le.transform([1, 1, 2, 6]) #array([0, 0, 1, 2])
  4. #非数值型转化为数值型
  5. le.fit(["paris", "paris", "tokyo", "amsterdam"])
  6. le.transform(["tokyo", "tokyo", "paris"]) #array([2, 2, 1])

含有异常值

 
  1. sklearn.preprocessing.robust_scale

生成多项式

这个其实涉及到特征工程了,多项式特征/交叉特征

原始特征
image

转化后
image

 
  1. poly = sklearn.preprocessing.PolynomialFeatures(2)
  2. poly.fit_transform(X)

本文转载自:http://shujuren.org/article/234.html?utm_source=tuicool&utm_medium=referral

soul_mate
粉丝 4
博文 38
码字总数 17544
作品 0
怀柔
私信 提问
值得玩味儿的14个Python编程小技巧

最近的工作中经常使用Python编写一些基本解决一些NLP的小问题,在自己的工作日记里面也记录了不少的python编程中常用的小"Trick",看到最近大家学习Python的劲头儿这么火辣,那就简单的贴出一...

流川枫AI
2018/09/23
0
0
用Python做图像处理

用Python做图像处理 最近在做一件比较 evil 的事情——验证码识别,以此来学习一些新的技能。因为我是初学,对图像处理方面就不太了解了,欲要利吾事,必先利吾器,既然只是做一下实验,那用...

彭博
2012/03/02
15.3K
2
数据降维 | 主成分分析(PCA)

01 数据降维 数据分析中,我们常常面对较大的数据集,这里的“大”,一是指样本量大(如千万量级),二是指高维度(如几百个维度)。因此在正式分析这些大数据前,我们需要对它们做预处理,从...

邓莎
04/07
0
0
Python 4 种不同的存取文件骚操作

最近开始学习tensorflow框架,选修课让任选一种框架实现mnist手写数字的识别分类。小詹也就随着大流选择了 tf 框架,跟着教程边学边做,小詹用了不同的神经网络实现了识别分类,其中有一个步...

技术小能手
2018/06/20
0
0
三行Python代码,让数据预处理速度提高2到6倍

在 Python 中,我们可以找到原生的并行化运算指令。本文可以教你仅使用 3 行代码,大大加快数据预处理的速度。 Python 是机器学习领域内的首选编程语言,它易于使用,也有很多出色的库来帮助...

技术小能手
2018/10/08
0
0

没有更多内容

加载失败,请刷新页面

加载更多

《Designing.Data-Intensive.Applications》笔记 四

第九章 一致性与共识 分布式系统最重要的的抽象之一是共识(consensus):让所有的节点对某件事达成一致。 最终一致性(eventual consistency)只提供较弱的保证,需要探索更高的一致性保证(stro...

丰田破产标志
今天
6
0
docker 使用mysql

1, 进入容器 比如 myslq1 里面进行操作 docker exec -it mysql1 /bin/bash 2. 退出 容器 交互: exit 3. mysql 启动在容器里面,并且 可以本地连接mysql docker run --name mysql1 --env MY...

之渊
今天
7
0
python数据结构

1、字符串及其方法(案例来自Python-100-Days) def main(): str1 = 'hello, world!' # 通过len函数计算字符串的长度 print(len(str1)) # 13 # 获得字符串首字母大写的...

huijue
今天
5
0
OSChina 周日乱弹 —— 我,小小编辑,食人族酋长

Osc乱弹歌单(2019)请戳(这里) 【今日歌曲】 @宇辰OSC :分享娃娃的单曲《飘洋过海来看你》: #今日歌曲推荐# 《飘洋过海来看你》- 娃娃 手机党少年们想听歌,请使劲儿戳(这里) @宇辰OSC...

小小编辑
今天
1K
11
MongoDB系列-- SpringBoot 中对 MongoDB 的 基本操作

SpringBoot 中对 MongoDB 的 基本操作 Database 库的创建 首先 在MongoDB 操作客户端 Robo 3T 中 创建数据库: 增加用户User: 创建 Collections 集合(类似mysql 中的 表): 后面我们大部分都...

TcWong
今天
40
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部