Python迭代器,生成器(iterator,generator)详解

2018/12/28 11:01
阅读数 5
最近在看两个github项目的代码时对迭代器有些困惑,因此写一篇笔记以理清脉络,经过两天的修改完善对迭代器有了一个初步的理解,相信会比网上绝大多数笔记有用些。
也可以参考stackoverflow上的这个上万赞的回答: What does the “yield” keyword do?
但就我个人来说,目前我并不赞成这个万赞回答,这可能与我对python的认知还不够全面有关,但无论如何我决定以自己的语言来表述迭代器、生成器、可迭代对象等。
一、基础概念
在进行具体的迭代类和迭代函数示例之前,首先介绍几个概念以防混淆:
# collections是一个包含了许多类型的module
from collections import Iterator,Iterable,Generator

可迭代对象iterable

可迭代的对象的意思是就是说这个实体是可迭代的,例如字符、列表、元组、字典、迭代器等等,可以用for ... in进行循环,可以使用for循环迭代的标志是内部实现了__iter__方法。

可迭代对象仅含有__iter__的内部方法,你可以通过封装next()方法(python3中为__next__())来将其做成一个迭代器,以生成器(generator,特殊的函数类型的迭代器)为例,你可以通过yield关键字来做一个迭代器,只不过名字被叫做generator,yield可以看做就是为对象添加了__iter__方法和指示下一次迭代的next()/__next__()方法。

使用isinstance(实体名,Iterable)可判断是否为可迭代对象

迭代器iterator

迭代器就是实现了迭代方式的容器,iterable对象一般只能按默认的正序方式进行迭代,你可以通过为其添加__next__()/next()方法来定制不同的迭代方式,这样通过next方法封装起来的迭代对象生成器就被称作迭代器。与iterable相比iterator多了一个next()方法,next()方法用于定制for循环时具体的返回值及返回顺序以及处理StopIteration异常等。

iterator必定是iterable的,因此其必然含有__iter__方法,此方法保证了iterator是可以迭代的,个人认为可以将__iter__()方法看做迭代器的入口,此入口告诉python对象是可for循环的,当你还为class定义了__next__方法时python的for循环会直接调用__next__()方法进行迭代,因此对于实现了__next__方法的迭代器来讲__iter__方法是一个不可或缺的鸡肋方法,不可或缺是因为他是可迭代的标识,鸡肋是因为他不会实质性的起作用,虽然他是迭代器的入口但却不是迭代的起始点,也因此iterator的__iter__方法可以随意返回self或者self.属性或者None。

使用isinstance(实体名,Iterator)可判断是否为迭代器

生成器generator

generator对象是一种特殊的iterator函数,它会在执行过程中保存执行的上下文环境,并在下次循环中从yield语句后继续执行,生成器的标志就是yield关键字。

generator不需要抛出StopIteration异常(你可以看做yield已经在内部实现了StopIteration跳出循环),函数并没有将序列项一次生成,所以generator在实现上可以有无穷个元素,而不需要无穷的存储空间,这在内存优化方面很有用处。

使用isinstance(实体名,Generator)可判断是否为生成器。

生成器的创建办法有两种:

  • 通过函数创建,称作generator function
  • 通过推导式创建,例如g=(x*2 for x in range(10)),称作generator expression

__iter__()和iter()

python有一个built-in函数iter()用来从序列对象,如String, list,tuple中生成迭代器。

__iter__()方法是python的魔法方法,如果对象是iterator那么for循环时python会直接调用__next__()方法拿到循环的下一个值,直到遇到StopIteration错误时退出循环。

在python中,如果对象不含__next__方法,但是__iter__只返回self的话,尝试对对象使用for循环就会报“TypeError: iter() returned non-iterator of type [类名]”,针对这种错误要么加一个__next__()方法,要么__iter__()返回一个包含__next__()方法的迭代器对象。那么按理来说string、list这些iterable对象也是只含有__iter__不含__next__的,为何他们就可以for循环呢,这点在本文中的示例三中有演示,如果__iter__魔法方法调用了iter()方法,返回了一个迭代器对象,那么即便其不包含__next__也可以进行迭代

二、示例

示例一:(Python3环境)

# 先看一个iterale对象
In [91]: from collections import Iterator,Iterable,Generator
In [92]: a=['ShanXi','HuNan','HuBei','XinJiang','JiangSu','XiZang','HeNan','HeBei']
In [93]: isinstance(a,Iterator),isinstance(a,Iterable),isinstance(a,Generator)
Out[93]: (False, True, False)
# 可以看到这是一个可迭代对象但并不是迭代器,我们把它搞成一个迭代器试试看:
# 方法一:
In [102]: def generator_list(a):
     ...:     for e in a:
     ...:         yield 'Province:\t'+e
In [105]: for province in generator_list(a):
     ...:     print(province)    
Province:   ShanXi
# ...其他输出省略
In [122]: isinstance(generator_list(a),Generator),isinstance(generator_list(a),Iterable),isinstance(generator_list(a),Iterator)
Out[122]: (True, True, True)
# 方法2:
class iterator_list(object):
    def __init__(self,a):
        self.a=a
        self.len=len(self.a)
        self.cur_pos=-1
    def __iter__(self):
        return self
    def __next__(self): # Python3中只能使用__next__()而Python2中只能命名为next()
        self.cur_pos +=1
        if self.cur_pos<self.len:
            return self.a[self.cur_pos]
        else:
            raise StopIteration() # 表示至此停止迭代
In [144]: for province in iterator_list(a):
     ...:     print(province)
In [147]: isinstance(iterator_list(a),Generator),isinstance(iterator_list(a),Iterable),isinstance(iterator_list(a),Iterator)
Out[147]: (False, True, True)
# iterator当然是iterable,因为其本身含有__iter__方法。

问题一:既然可迭代对象也可以使用for循环遍历,为何还要使用迭代器呢?

一般情况下不需要将可迭代对象封装为迭代器。但是想象一种需要重复迭代的场景,在一个class中我们需要对输入数组进行正序、反序、正序step=1、正序step=2等等等等的多种重复遍历,那么我们完全可以针对每一种遍历方式写一个迭代容器,这样就不用每次需要遍历时都费劲心思的写一堆对应的for循环代码,只要调用相应名称的迭代器就能做到,针对每一种迭代器我们还可以加上类型判断及相应的处理,这使得我们可以不必关注底层的迭代代码实现。

从这种角度来看,你可以将迭代器看做可迭代对象的函数化,有一个非常流行的迭代器库itertools,其实就是如上所说的,他为很多可迭代类型提前定义好了一些列的常见迭代方式,并封装为了迭代器,这样大家就可以很方便的直接通过调用此模块玩转迭代。

此外iterator还可以节省内存,这点在问题二会描述。

问题二:生成器(generator)如何节约内存的?

generator的标志性关键字yield其实可以看作return,以本文上述的generator_list()方法为例,generator_list(a)就是一个生成器。

生成器最大的好处在于:generator_list(a)并不会真正执行函数的代码,只有在被循环时才会去获取值,且每次循环都return一个值(即yield一个值),在处理完毕后下次循环时依然使用相同的内存(假设处理单位大小一样)来获取值并处理,这样在一次for循环中函数好像中断(yield)了无数次,每次都用相同大小的内存来存储被迭代的值。

yield与return的最大区别就是yield并不意味着函数的终止,而是意味着函数的一次中断,在未被迭代完毕之前yield意味着先返回一次迭代值并继续下一次函数的执行(起始位置是上一次yeild语句结束),而return则基本意味着一个函数的彻底终止并返回一个全量的返回值。

因此generator是为了节省内存的,而且将函数写为一个生成器可以使函数变的可迭代,如果我们想遍历函数的返回值,我们不用再单独定义一个可迭代变量存储函数的返回值们,而是直接迭代生成器函数即可(除非函数本身返回一个全量的可迭代对象)。

同理iterator的__iter__()方法只是一个迭代的入口,每次调用__next__()时返回一个迭代值,同样以O(1)的空间复杂度完成了迭代。

问题三:iterator与generator的异同?

generator是iterator的一个子集,iterator也有节约内存的功效,generator也可以定制不同的迭代方式。

官网解释:Python’s generators provide a convenient way to implement the iterator protocol.

其实说白了就是generator更加轻量,日常编程里你可能常常使用它,而iterator一般使用系统提供的工具就可以了,极少会自己写一个。

示例二:(Python2环境)

#-*- coding: utf-8 -*-
# 简便起见这里只写python2的代码,想要在python3中运行将print修改下再把next()改名为__next__即可。
list=['a','b','c','d','e','f','g','h','i','j']
class iter_standard(object):
    def __init__(self,list):
        self.list=list
        self.len = len(self.list)
        self.cur_pos = -1
    def __iter__(self):
        return self
    def next(self):
        self.cur_pos += 1
        if self.cur_pos<self.len:
            return self.list[self.cur_pos]
        else:
            raise StopIteration()
class iter_reverse(object):
    def __init__(self,list):
        self.list=list
        self.len = len(self.list)
        self.cur_pos = self.len
    def __iter__(self):
        return self
    def next(self):
        self.cur_pos -= 1
        if self.cur_pos>=0:
            return self.list[self.cur_pos]
        else:
            raise StopIteration()
for e in iter_standard(list):
    print e
for e in iter_reverse(list):
    print e

可以看到我们只要调用相应名字的迭代器对象就可以直接进行for循环了,这种写法相比起每次都需要在for循环中重复一遍算法逻辑要简单,除此之外你还可以为不同输入类型定制相同的迭代方式,这样就无需关注内部实现了。这就是迭代器的作用,为不同类型的输入封装相同的迭代功能,从而实现代码简化。Python中有一个非常有用的itertools module,提供了大量不同的迭代器,只要直接调用你就可以实现对序列的各种操作,你可以通过这个库加深对于迭代器的理解。

示例三:(Python2环境)

# 在github项目pymysqlreplication里发现,作者并未为class BinLogStreamReader专门写__next__方法,而是在__iter__里直接返回一个迭代器对象,这个迭代器对象是使用iter()方法调用self.fetchone生成的,代码如下:
# module binlogstream部分代码如下:
"""
class BinLogStreamReader(object):
    ......
    def fetchone(self):
        while True:
            ... # 各种参数赋值和终止条件定义
            binlog_event = ...
            if binlog_event.event_type ...
            ...
            return binlog_event.event
    ......
    def __iter__(self):
        return iter(self.fetchone, None)
"""
# fetchone是class BinLogStreamReader的一个方法,使用while循环根据不同的条件进行判断,返回event序列,这个可迭代的序列使用iter()处理后就是一个迭代器了,因此直接在__iter__中返回后就取代了__next__的作用。
# 因为不含__next__方法因此使用isinstance()判断BinLogStreamReader是否为迭代器时就会出错,虽然结果显示不是迭代器,但其实确实是迭代器...
# 我们改写下示例二中的class iter_standard来验证这个错误:
#-*- coding: utf-8 -*-
from collections import Iterator,Iterable
list=['a','b','c','d','e','f','g','h','i','j']
class iter_standard(object):
    def __init__(self,list):
        self.list=list
    def __iter__(self):
        return iter(self.list)
print isinstance(iter_standard(list),Iterable),isinstance(iter_standard(list),Iterator)
# 结果如下图,isinstance并不认为iter_standard类是一个迭代器。

因此这里可以对iterable对象做一个有别于文章开头的解释,非iterator的iterable对象其标志不仅仅是含有__iter__方法,他的__iter__方法还返回了一个迭代器对象(例如示例三中的iter(self.list)),但因为其本身不含__next__方法所以其可for循环但并不是iterator。

补充:

日常工作中使用generator处理大文件是比较常见的场景,因为可以不用一次性读取整个文件,使用generator也可以极大的减少代码量。

这里贴一个某次使用generator进行基于mysql binlog恢复的脚本,使用此脚本读取一个300多G的flashback sql文件,占用极小的内存完成了恢复:

#!/usr/bin/python3.6.5/bin/python3.6
# coding=utf-8
import pymysql
import sys
import os
import time

file = sys.argv[1]
mysql_conn = pymysql.connect(host = "xxx" , port = 3306 , user = "leo" , passwd = "xxx" , db = "xxx",charset='utf8')


def get_sql_batch(open_file,batch_size,file_size):
    cur_pos=0
    open_file.seek(0 , os.SEEK_SET)
    while cur_pos<file_size:
        sql_batch=[]
        for i in range(batch_size):
            sql_line = open_file.readline()
            if 'xxx' in sql_line:
                sql_batch.append(sql_line)
        cur_pos=f.tell()
        yield sql_batch,cur_pos

f=open(file)
f.seek(0 , os.SEEK_END)
filesize = f.tell()
f.seek(0 , os.SEEK_SET)
with mysql_conn.cursor() as cur:
    for batch,pos in get_sql_batch(f,1000,filesize):
        for sql in batch:
            cur.execute(sql)
        mysql_conn.commit()
        print('%s: Current pos: %s,Current percent: %.2f%%'%(time.ctime(),pos,pos*100/filesize))
f.close()
展开阅读全文
打赏
0
0 收藏
分享
加载中
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部