文档章节

使用Python处理地理数据文件-多进程处理类

JasonSE
 JasonSE
发布于 2016/05/14 20:32
字数 1032
阅读 150
收藏 7

最近在研究使用ArcGIS制作地图,ArcGIS软件本身提供了丰富完备的地图文件处理工具,但是这些工具都需要手工操作,非常耗费时间。幸好ArcGIS还提供了一套Python库(arcpy),可以基于这个库编写脚本进行数据文件批处理。一般在进行批处理的时候,使用多进程处理任务会加快处理速度,所以打算先封装一个多进程处理的基础类,便于后面写具体功能时使用。

思路大致是这样:

  • 先初始化一个任务队列
  • 将待处理的任务方法和参数打包添加到任务队列中
  • 启动一个固定大小的进程池循环从任务队列中领取任务包
  • 拿出任务包中的方法和参数执行任务

开始编写了一版,源码如下:

from multiprocessing import Manager,Pool
import os, logging, timeit, time

class BatchBase(object):
       
    def __init__(self):
        '''
        Constructor
        '''
        
        
    def __del__(self):
        '''
        Destructor
        '''
    
    ##消费者
    def __task_consumer(self,q):
        while not q.empty():
            try:
                task = q.get(block=True,timeout=2)
                
                function = task.get('function')
                callback = task.get('callback')
                args     = task.get('args')
                kwargs   = task.get('kwargs')
                name     = task.get('name')
                pid      = os.getpid()
                try:
                    print '%d start job %s [%s]!\n' % (pid,name,self.getNowTime())
                    if callback:
                        callback(function(*args, **kwargs))
                    else:
                        function(*args, **kwargs)
                    
                    print '%d complete job %s success [%s]!\n' % (pid,name,self.getNowTime())
                except Exception as ex:
                    if callback:
                        callback(ex)
                    print '%d complete job %s fail [%s]\n' % (pid,name,self.getNowTime())
                    print ex
                finally:
                    q.task_done()
            except Exception as ex:
                logging.error(ex)   
    
    def getNowTime(self):
        return time.strftime("%H:%M:%S",time.localtime(time.time()))
    
    ##初始化任务队列
    def batch_init(self):
        _manager = Manager()
        _queue   = _manager.Queue()
        return _queue
    
    ##加入job
    def batch_join(self, q, name, function, callback, *args, **kwargs):       
        q.put({
            'name': name,
            'function': function,
            'callback': callback,
            'args': args,
            'kwargs': kwargs
        }) 
        
    ##执行任务
    def batch_run(self,q,num_consumer):
        _start_time = timeit.default_timer()
        _pool       = Pool(processes = num_consumer)
        print 'pool initialized with %d workers!' % num_consumer
        for i in xrange(num_consumer):
            _pool.apply_async(self.__task_consumer,args=(q,))
            print 'worker %d started' % i
        
        print 'wait for all workers'
        _pool.close()
        _pool.join()
        print 'all jobs are completed!'
        print 'Elapsed Time: %s seconds' % (timeit.default_timer() - _start_time)


##测试代码...      

调试执行时直接Exception

PicklingError: Can't pickle <type 'instancemethod'>: attribute lookup __builtin__.instancemethod failed

查询了一下,这个错误大意是说“不能序列化实例方法”。

详细了解了下,问题出在进程池的apply_async方法上,这个方法传入的参数需要被序列化,而第一个参数是这个类实例的方法,不能被序列化

_pool.apply_async(self.__task_consumer,args=(q,))

这个问题从stackoverflow上找到一种解决办法,Python中有种机制,只要定义类型的时候,实现了__call__函数,这个类型就成为可调用的。所以在BatchBase类中实现__call__,在__call__中再调用__task_consumer,而后在进程池申请使用方法中将self作为参数传入,进程在执行时会通过__call__调用__task_consumer,从而达到“曲线救国”。

改进后的完整代码如下:

# -*- coding:utf-8 -*- 
##========================
'''
Created on 2016年5月14日
@author: Jason
'''
from multiprocessing import Manager,Pool
import os, logging, timeit, time

class BatchBase(object):
       
    def __init__(self):
        '''
        Constructor
        '''
        
        
    def __del__(self):
        '''
        Destructor
        '''
        
    def __call__(self,q):
        return self.__task_consumer(q)
    
    ##消费者
    def __task_consumer(self,q):
        while not q.empty():
            try:
                task = q.get(block=True,timeout=2)
                
                function = task.get('function')
                callback = task.get('callback')
                args     = task.get('args')
                kwargs   = task.get('kwargs')
                name     = task.get('name')
                pid      = os.getpid()
                try:
                    print '%d start job %s [%s]!\n' % (pid,name,self.getNowTime())
                    if callback:
                        callback(function(*args, **kwargs))
                    else:
                        function(*args, **kwargs)
                    
                    print '%d complete job %s success [%s]!\n' % (pid,name,self.getNowTime())
                except Exception as ex:
                    if callback:
                        callback(ex)
                    print '%d complete job %s fail [%s]\n' % (pid,name,self.getNowTime())
                    print ex
                finally:
                    q.task_done()
            except Exception as ex:
                logging.error(ex)   
    
    def getNowTime(self):
        return time.strftime("%H:%M:%S",time.localtime(time.time()))
    
    ##初始化任务队列
    def batch_init(self):
        _manager = Manager()
        _queue   = _manager.Queue()
        return _queue
    
    ##加入job
    def batch_join(self, q, name, function, callback, *args, **kwargs):       
        q.put({
            'name': name,
            'function': function,
            'callback': callback,
            'args': args,
            'kwargs': kwargs
        }) 
        
    ##执行任务
    def batch_run(self,q,num_consumer):
        _start_time = timeit.default_timer()
        _pool       = Pool(processes = num_consumer)
        print 'pool initialized with %d workers!' % num_consumer
        for i in xrange(num_consumer):
            _pool.apply_async(self,args=(q,))
            print 'worker %d started' % i
        
        print 'wait for all workers'
        _pool.close()
        _pool.join()
        print 'all jobs are completed!'
        print 'Elapsed Time: %s seconds' % (timeit.default_timer() - _start_time)


##############for test##############################
def test_task(name):
    print 'Run task %s (%s)...' % (name, os.getpid())
    start_time = timeit.default_timer()
    time.sleep(3)
    end_time = timeit.default_timer()
    print 'Task %s runs %0.2f seconds.' % (name, (end_time - start_time))


if __name__=='__main__':

    #类实例
    batch = BatchBase()

    #初始化job队列
    jobs  = batch.batch_init()

    #循环加入job
    for i in range(4):
        batch.batch_join(jobs, str(i), test_task, None, str(i))

    #执行job(使用3个进程)
    batch.batch_run(jobs, 3)
    
    print '任务执行完成.'        

执行成功!

© 著作权归作者所有

共有 人打赏支持
JasonSE
粉丝 32
博文 56
码字总数 16154
作品 0
朝阳
程序员
私信 提问
5本必读Python入门书籍,你都看过吗?(附福利)

今天技术学派为大家准备了5本Python入门书籍,除了书籍小编还整理了3个常用的资源网站分享给大家。 1.Python基础教程 《Python基础教程》是经典的Python入门教程书籍,本书层次鲜明,结构严谨...

Python燕大侠
06/07
0
0
三行Python代码,让数据预处理速度提高2到6倍

在 Python 中,我们可以找到原生的并行化运算指令。本文可以教你仅使用 3 行代码,大大加快数据预处理的速度。 Python 是机器学习领域内的首选编程语言,它易于使用,也有很多出色的库来帮助...

技术小能手
10/08
0
0
有轻功:用3行代码让Python数据处理脚本获得4倍提速

Python是一门非常适合处理数据和自动化完成重复性工作的编程语言,我们在用数据训练机器学习模型之前,通常都需要对数据进行预处理,而Python就非常适合完成这项工作,比如需要重新调整几十万...

爱喵的程序员
07/26
0
0
《Python分布式计算》 第3章 Python的并行计算 (Distributed Computing with Python)

序言 第1章 并行和分布式计算介绍 第2章 异步编程 第3章 Python的并行计算 第4章 Celery分布式应用 第5章 云平台部署Python 第6章 超级计算机群使用Python 第7章 测试和调试分布式应用 第8章...

seancheney
2017/10/13
0
0
王老板Python面试(10):17道python笔试面试真题

1、一行代码实现1--100之和 利用sum()函数求和 2、如何在一个函数内部修改全局变量 利用global 修改全局变量 3、列出5个python标准库 os:提供了不少与操作系统相关联的函数 sys: 通常用于命...

程序员八阿哥
05/22
0
0

没有更多内容

加载失败,请刷新页面

加载更多

码云项目100,水一发

简单回顾一下: 早期构想最多的,是希望能将PHP一些类和编码分区做得更细,所以很多尝试。但不得不说,PHP的功能过于单一,是的,也许写C/C++扩展,可以解决问题,那我为什么不用C#或者Golan...

曾建凯
今天
3
0
Spring应用学习——AOP

1. AOP 1. AOP:即面向切面编程,采用横向抽取机制,取代了传统的继承体系的重复代码问题,如下图所示,性能监控、日志记录等代码围绕业务逻辑代码,而这部分代码是一个高度重复的代码,也就...

江左煤郎
今天
4
0
eclipse的版本

Eclipse各版本代号一览表 Eclipse的设计思想是:一切皆插件。Eclipse核心很小,其它所有功能都以插件的形式附加于Eclipse核心之上。 Eclipse基本内核包括:图形API(SWT/Jface),Java开发环...

mdoo
今天
3
0
SpringBoot源码:启动过程分析(一)

本文主要分析 SpringBoot 的启动过程。 SpringBoot的版本为:2.1.0 release,最新版本。 一.时序图 还是老套路,先把分析过程的时序图摆出来:时序图-SpringBoot2.10启动分析 二.源码分析 首...

Jacktanger
今天
6
0
小白带你认识netty(二)之netty服务端启动(上)

上一章 中的标准netty启动代码中,ServerBootstrap到底是如何启动的呢?这一章我们来瞅下。 server.group(bossGroup, workGroup);server.channel(NioServerSocketChannel.class).optio...

天空小小
今天
4
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部