文档章节

使用Python处理地理数据文件-多进程处理类

JasonSE
 JasonSE
发布于 2016/05/14 20:32
字数 1032
阅读 137
收藏 7

最近在研究使用ArcGIS制作地图,ArcGIS软件本身提供了丰富完备的地图文件处理工具,但是这些工具都需要手工操作,非常耗费时间。幸好ArcGIS还提供了一套Python库(arcpy),可以基于这个库编写脚本进行数据文件批处理。一般在进行批处理的时候,使用多进程处理任务会加快处理速度,所以打算先封装一个多进程处理的基础类,便于后面写具体功能时使用。

思路大致是这样:

  • 先初始化一个任务队列
  • 将待处理的任务方法和参数打包添加到任务队列中
  • 启动一个固定大小的进程池循环从任务队列中领取任务包
  • 拿出任务包中的方法和参数执行任务

开始编写了一版,源码如下:

from multiprocessing import Manager,Pool
import os, logging, timeit, time

class BatchBase(object):
       
    def __init__(self):
        '''
        Constructor
        '''
        
        
    def __del__(self):
        '''
        Destructor
        '''
    
    ##消费者
    def __task_consumer(self,q):
        while not q.empty():
            try:
                task = q.get(block=True,timeout=2)
                
                function = task.get('function')
                callback = task.get('callback')
                args     = task.get('args')
                kwargs   = task.get('kwargs')
                name     = task.get('name')
                pid      = os.getpid()
                try:
                    print '%d start job %s [%s]!\n' % (pid,name,self.getNowTime())
                    if callback:
                        callback(function(*args, **kwargs))
                    else:
                        function(*args, **kwargs)
                    
                    print '%d complete job %s success [%s]!\n' % (pid,name,self.getNowTime())
                except Exception as ex:
                    if callback:
                        callback(ex)
                    print '%d complete job %s fail [%s]\n' % (pid,name,self.getNowTime())
                    print ex
                finally:
                    q.task_done()
            except Exception as ex:
                logging.error(ex)   
    
    def getNowTime(self):
        return time.strftime("%H:%M:%S",time.localtime(time.time()))
    
    ##初始化任务队列
    def batch_init(self):
        _manager = Manager()
        _queue   = _manager.Queue()
        return _queue
    
    ##加入job
    def batch_join(self, q, name, function, callback, *args, **kwargs):       
        q.put({
            'name': name,
            'function': function,
            'callback': callback,
            'args': args,
            'kwargs': kwargs
        }) 
        
    ##执行任务
    def batch_run(self,q,num_consumer):
        _start_time = timeit.default_timer()
        _pool       = Pool(processes = num_consumer)
        print 'pool initialized with %d workers!' % num_consumer
        for i in xrange(num_consumer):
            _pool.apply_async(self.__task_consumer,args=(q,))
            print 'worker %d started' % i
        
        print 'wait for all workers'
        _pool.close()
        _pool.join()
        print 'all jobs are completed!'
        print 'Elapsed Time: %s seconds' % (timeit.default_timer() - _start_time)


##测试代码...      

调试执行时直接Exception

PicklingError: Can't pickle <type 'instancemethod'>: attribute lookup __builtin__.instancemethod failed

查询了一下,这个错误大意是说“不能序列化实例方法”。

详细了解了下,问题出在进程池的apply_async方法上,这个方法传入的参数需要被序列化,而第一个参数是这个类实例的方法,不能被序列化

_pool.apply_async(self.__task_consumer,args=(q,))

这个问题从stackoverflow上找到一种解决办法,Python中有种机制,只要定义类型的时候,实现了__call__函数,这个类型就成为可调用的。所以在BatchBase类中实现__call__,在__call__中再调用__task_consumer,而后在进程池申请使用方法中将self作为参数传入,进程在执行时会通过__call__调用__task_consumer,从而达到“曲线救国”。

改进后的完整代码如下:

# -*- coding:utf-8 -*- 
##========================
'''
Created on 2016年5月14日
@author: Jason
'''
from multiprocessing import Manager,Pool
import os, logging, timeit, time

class BatchBase(object):
       
    def __init__(self):
        '''
        Constructor
        '''
        
        
    def __del__(self):
        '''
        Destructor
        '''
        
    def __call__(self,q):
        return self.__task_consumer(q)
    
    ##消费者
    def __task_consumer(self,q):
        while not q.empty():
            try:
                task = q.get(block=True,timeout=2)
                
                function = task.get('function')
                callback = task.get('callback')
                args     = task.get('args')
                kwargs   = task.get('kwargs')
                name     = task.get('name')
                pid      = os.getpid()
                try:
                    print '%d start job %s [%s]!\n' % (pid,name,self.getNowTime())
                    if callback:
                        callback(function(*args, **kwargs))
                    else:
                        function(*args, **kwargs)
                    
                    print '%d complete job %s success [%s]!\n' % (pid,name,self.getNowTime())
                except Exception as ex:
                    if callback:
                        callback(ex)
                    print '%d complete job %s fail [%s]\n' % (pid,name,self.getNowTime())
                    print ex
                finally:
                    q.task_done()
            except Exception as ex:
                logging.error(ex)   
    
    def getNowTime(self):
        return time.strftime("%H:%M:%S",time.localtime(time.time()))
    
    ##初始化任务队列
    def batch_init(self):
        _manager = Manager()
        _queue   = _manager.Queue()
        return _queue
    
    ##加入job
    def batch_join(self, q, name, function, callback, *args, **kwargs):       
        q.put({
            'name': name,
            'function': function,
            'callback': callback,
            'args': args,
            'kwargs': kwargs
        }) 
        
    ##执行任务
    def batch_run(self,q,num_consumer):
        _start_time = timeit.default_timer()
        _pool       = Pool(processes = num_consumer)
        print 'pool initialized with %d workers!' % num_consumer
        for i in xrange(num_consumer):
            _pool.apply_async(self,args=(q,))
            print 'worker %d started' % i
        
        print 'wait for all workers'
        _pool.close()
        _pool.join()
        print 'all jobs are completed!'
        print 'Elapsed Time: %s seconds' % (timeit.default_timer() - _start_time)


##############for test##############################
def test_task(name):
    print 'Run task %s (%s)...' % (name, os.getpid())
    start_time = timeit.default_timer()
    time.sleep(3)
    end_time = timeit.default_timer()
    print 'Task %s runs %0.2f seconds.' % (name, (end_time - start_time))


if __name__=='__main__':

    #类实例
    batch = BatchBase()

    #初始化job队列
    jobs  = batch.batch_init()

    #循环加入job
    for i in range(4):
        batch.batch_join(jobs, str(i), test_task, None, str(i))

    #执行job(使用3个进程)
    batch.batch_run(jobs, 3)
    
    print '任务执行完成.'        

执行成功!

© 著作权归作者所有

共有 人打赏支持
JasonSE
粉丝 32
博文 55
码字总数 15572
作品 0
朝阳
程序员
有轻功:用3行代码让Python数据处理脚本获得4倍提速

Python是一门非常适合处理数据和自动化完成重复性工作的编程语言,我们在用数据训练机器学习模型之前,通常都需要对数据进行预处理,而Python就非常适合完成这项工作,比如需要重新调整几十万...

爱喵的程序员
07/26
0
0
5本必读Python入门书籍,你都看过吗?(附福利)

今天技术学派为大家准备了5本Python入门书籍,除了书籍小编还整理了3个常用的资源网站分享给大家。 1.Python基础教程 《Python基础教程》是经典的Python入门教程书籍,本书层次鲜明,结构严谨...

Python燕大侠
06/07
0
0
python标准库00 学习准备

Python标准库----走马观花 python有一套很有用的标准库。标准库会随着python解释器一起安装在你的电脑上的.它是python的一个组成部分.这些标准库是python为你准备的利器,可以让编程事半功倍....

肖邦0526
2015/12/29
0
0
python学习笔记 | Python中的线程与进程简介

近日,我开始对代码的各个部分进行计时,以了解我是否可以加快速度。 令我惊讶的是,我发现数据增强是最大的瓶颈。我使用的方法:旋转,翻转,缩放。依靠Numpy并在CPU上运行。Numpy在某些情况...

跨界的聚能
05/25
0
0
王老板Python面试(10):17道python笔试面试真题

1、一行代码实现1--100之和 利用sum()函数求和 2、如何在一个函数内部修改全局变量 利用global 修改全局变量 3、列出5个python标准库 os:提供了不少与操作系统相关联的函数 sys: 通常用于命...

程序员八阿哥
05/22
0
0

没有更多内容

加载失败,请刷新页面

加载更多

八月新增开源项目:假装自己是图形界面的 Git 命令行工具

每月新增开源项目。顾名思义,每月更新一期。我们会从社区上个月新收录的开源项目中,挑选出有价值的、有用的、优秀的、或者好玩的开源项目来和大家分享。数量不多,但我们力求推荐的都是精品...

编辑部的故事
昨天
7
0
20180918 find命令与Linux文件扩展名

命令find 用来查找搜索文件。 搜索文件相关命令: which 从环境变量里的目录中去搜索 whereis(不常用) 从一个固定的库中搜索 locate(需要单独安装 yum install -y mlocate) 查询时会从/var/...

野雪球
昨天
1
0
GO 数组相关操作

package mainimport("fmt""math/rand""time")func main() {//数组的几种定义方式var arr1 [3]int = [3]int{1,2,3}var arr2 = [3]int{4,5,6}arr3 := [3]string{"h", "w", ......

汤汤圆圆
昨天
1
0
JAVA 中interrupt、interrupted和isInterrupted的区别

首先,我们说明下三个方法的功能 interrupt() 向当前调用者线程发出中断信号 isinterrupted() 查看当前中断信号是true还是false interrupted() 是静态方法,查看返回当前中断信号并将中断信号...

我爱春天的毛毛雨
昨天
1
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部