最近的一个项目中在使用grpc时遇到一个问题,因为client端可多达200,每一个端口每10s向grpc server发送一次请求,server端接受client的请求后根据request信息更新数据库,再将数据库和配置文件的某些数据封装后返回给client。原代码的性能是0.26s/request,远远达不到所需性能,其中数据库更新操做耗时达到80%,其中一个优化点就是将数据库更新操做放在独立的线程中。
在次以前没有使用过线程编码,学以至用后本着加深理解的想法,将这个过程记录下来,这里先记下用于线程间通讯的队列Queue的相关知识。数据库
Python2中队列库名称为Queue,Python3中已更名为queue,项目使用Python2.7.5版本,天然是使用Queue。
Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,可在多线程通讯中直接使用。安全
Queue模块定义了如下类及异常,在队列类中,maxsize
限制可入队列数据的数量,值小于等于0时表明不限制:多线程
Queue.Queue(maxsize=0)
FIFO队列Queue.LifoQueue(maxsize=0)
LIFO队列Queue.PriorityQueue(maxsize=0)
优先级队列Queue.Empty
TODO
Queue.Full
Queue(Queue、LifoQueue、PriorityQueue)对象提供如下方法:性能
Queue.qsize()
Queue.empty()
Queue.full()
Queue.put(item[, block[, timeout]])
Queue.put_nowait(item)
put(item, False)
Queue.get([block[, timeout]])
Queue.get_nowait()
get(item, False)
Queue.task_done()
Queue.join()
UpdateThread
是单一消费者进程,获取FIFO队列中的数据处理,GrpcThread
是multi生产者线程,须要对往队列中丢数据这个操做加锁保证数据前后顺序。学习
import threading import Queue import time q = Queue.Queue() q_lock = threading.Lock() class UpdateThread(threading.Thread): def __init__(self): super(self.__class__, self).__init__() self.setName(self.__class__.__name__) self._setName = self.setName @staticmethod def update_stat(): global q while not q.empty(): stat = q.get() print 'Update stat (%s) in db' % stat def run(self): while True: self.update_stat() time.sleep(0.1) class GrpcThread(threading.Thread): def compose_stat(self, stat): global q q_lock.acquire() q.put('%d: %s' % (stat, self.name)) q_lock.release() return def run(self): for i in range(10): self.compose_stat(i) time.sleep(0.1) def launch_update_thread(): UpdateThread().start() if __name__ == '__main__': launch_update_thread() thread1 = GrpcThread() thread2 = GrpcThread() thread1.start() thread2.start()