Python并发编程之谈谈线程中的“锁机制”(三)

你们好,并发编程 进入第三篇。python

今天咱们来说讲,线程里的锁机制编程


本文目录

  • 何为Lock( 锁 )?
  • 如何使用Lock( 锁 )?
  • 为什么要使用锁?
  • 可重入锁(RLock)
  • 防止死锁的加锁机制
  • 饱受争议的GIL(全局锁)


. 何为Lock( 锁 )?

何为 Lock( 锁 ),在网上找了好久,也没有找到合适的定义。可能 这个词已经足够直白了,不须要再解释了。bash

可是,对于新手来讲,我仍是要说下个人理解。markdown

我本身想了个生活中例子来看下。多线程

有一个奇葩的房东,他家里有两个房间想要出租。这个房东很抠门,家里有两个房间,但却只有一把锁,不想另外花钱是去买另外一把锁,也不让租客本身加锁。这样租客只有,先租到的那我的才能分配到锁。X先生,率先租到了房子,而且拿到了锁。然后来者Y先生,因为锁已经已经被X取走了,本身拿不到锁,也不能本身加锁,Y就不肯意了。也就不租了,换做其余人也同样,没有人会租第二个房间,直到X先生退租,把锁还给房东,可让其余房客来取。第二间房间才能租出去。并发

换句话说,就是房东同时只能出租一个房间,一但有人租了一个房间,拿走了惟一的锁,就没有人再在租另外一间房了。ide

回到咱们的线程中来,有两个线程A和B,A和B里的程序都加了同一个锁对象,当线程A率先执行到lock.acquire()(拿到全局惟一的锁后),线程B只能等到线程A释放锁lock.release()后(归还锁)才能运行lock.acquire()(拿到全局惟一的锁)并执行后面的代码。

函数

这个例子,是否是让你清楚了什么是锁呢?性能


. 如何使用Lock( 锁 )?

来简单看下代码,学习如何加锁,获取钥匙,释放锁。学习

import threading

# 生成锁对象,全局惟一
lock = threading.Lock()

# 获取锁。未获取到会阻塞程序,直到获取到锁才会往下执行
lock.acquire()

# 释放锁,归回倘,其余人能够拿去用了
lock.release()
复制代码

须要注意的是,lock.acquire() 和 lock.release()必须成对出现。不然就有可能形成死锁。

不少时候,咱们虽然知道,他们必须成对出现,可是仍是不免会有忘记的时候。
为了,规避这个问题。我推荐使用使用上下文管理器来加锁。

import threading

lock = threading.Lock()
with lock:
    # 这里写本身的代码
    pass
复制代码

with 语句会在这个代码块执行前自动获取锁,在执行结束后自动释放锁。


. 为什么要使用锁?

你如今确定仍是一脸懵逼,这么麻烦,我不用锁不行吗?有的时候还真不行。

那么为了说明锁存在的意义。咱们分别来看下,不用锁的情形有怎样的问题。

定义两个函数,分别在两个线程中执行。这两个函数 共用 一个变量 n

def job1():
    global n
    for i in range(10):
        n+=1
        print('job1',n)

def job2():
    global n
    for i in range(10):
        n+=10
        print('job2',n)

n=0
t1=threading.Thread(target=job1)
t2=threading.Thread(target=job2)
t1.start()
t2.start()
复制代码

看代码貌似没什么问题,执行下看看输出

job1 1
job1 2
job1 job2 13
job2 23
job2 333
job1 34
job1 35
job2
job1 45 46
job2 56
job1 57
job2
job1 67
job2 68 78
job1 79
job2
job1 89
job2 90 100
job2 110
复制代码

是否是很乱?彻底不是咱们预想的那样。

解释下这是为何?由于两个线程共用一个全局变量,又因为两线程是交替执行的,当job1 执行三次 +1 操做时,job2就无论三七二十一 给n作了+10操做。两个线程之间,执行彻底没有规矩,没有约束。因此会看到输出固然也很乱。

加了锁后,这个问题也就解决,来看看

def job1():
    global n, lock
    # 获取锁
    lock.acquire()
    for i in range(10):
        n += 1
        print('job1', n)
    lock.release()


def job2():
    global n, lock
    # 获取锁
    lock.acquire()
    for i in range(10):
        n += 10
        print('job2', n)
    lock.release()

n = 0
# 生成锁对象
lock = threading.Lock()

t1 = threading.Thread(target=job1)
t2 = threading.Thread(target=job2)
t1.start()
t2.start()
复制代码

因为job1的线程,率先拿到了锁,因此在for循环中,没有人有权限对n进行操做。当job1执行完毕释放锁后,job2这才拿到了锁,开始本身的for循环。

看看执行结果,真如咱们预想的那样。

job1 1
job1 2
job1 3
job1 4
job1 5
job1 6
job1 7
job1 8
job1 9
job1 10
job2 20
job2 30
job2 40
job2 50
job2 60
job2 70
job2 80
job2 90
job2 100
job2 110
复制代码

这里,你应该也知道了,加锁是为了对锁内资源(变量)进行锁定,避免其余线程篡改已被锁定的资源,以达到咱们预期的效果。

为了不你们忘记释放锁,后面的例子,我将都使用with上下文管理器来加锁。你们注意一下。


. 可重入锁(RLock)

有时候在同一个线程中,咱们可能会屡次请求同一资源(就是,获取同一锁钥匙),俗称锁嵌套。

若是仍是按照常规的作法,会形成死锁的。好比,下面这段代码,你能够试着运行一下。会发现并无输出结果。

import threading

def main():
    n = 0
    lock = threading.Lock()
    with lock:
        for i in range(10):
            n += 1
            with lock:
                print(n)

t1 = threading.Thread(target=main)
t1.start()
复制代码

是由于,第二次获取锁时,发现锁已经被同一线程的人拿走了。本身也就理所固然,拿不到锁,程序就卡住了。

那么如何解决这个问题呢。

threading模块除了提供Lock锁以外,还提供了一种可重入锁RLock,专门来处理这个问题。
threading模块除了提供Lock锁以外,还提供了一种可重入锁RLock,专门来处理这个问题。

import threading

def main():
    n = 0
    # 生成可重入锁对象
    lock = threading.RLock()
    with lock:
        for i in range(10):
            n += 1
            with lock:
                print(n)

t1 = threading.Thread(target=main)
t1.start()
复制代码

执行一下,发现已经有输出了。

1
2
3
4
5
6
7
8
9
10
复制代码

须要注意的是,可重入锁,只在同一线程里,放松对锁钥匙的获取,其余与Lock并没有二致。


. 防止死锁的加锁机制

在编写多线程程序时,可能无心中就会写了一个死锁。能够说,死锁的形式有多种多样,可是本质都是相同的,都是对资源不合理竞争的结果。

以本人的经验总结,死锁一般如下几种

  • 同一线程,嵌套获取同把锁,形成死锁。
  • 多个线程,不按顺序同时获取多个锁。形成死锁

对于第一种,上面已经说过了,使用可重入锁。

主要是第二种。可能你还没明白,是如何死锁的。

举个例子。

线程1,嵌套获取A,B两个锁,线程2,嵌套获取B,A两个锁。
因为两个线程是交替执行的,是有机会遇到线程1获取到锁A,而未获取到锁B,在同一时刻,线程2获取到锁B,而未获取到锁A。因为锁B已经被线程2获取了,因此线程1就卡在了获取锁B处,因为是嵌套锁,线程1未获取并释放B,是不能释放锁A的,这是致使线程2也获取不到锁A,也卡住了。两个线程,各执一锁,各不让步。形成死锁。

通过数学证实,只要两个(或多个)线程获取嵌套锁时,按照固定顺序就能保证程序不会进入死锁状态。

那么问题就转化成如何保证这些锁是按顺序的?

有两个办法

  • 人工自觉,人工识别。
  • 写一个辅助函数来对锁进行排序。

第一种,就不说了。

第二种,能够参考以下代码

import threading
from contextlib import contextmanager

# Thread-local state to stored information on locks already acquired
_local = threading.local()

@contextmanager
def acquire(*locks):
    # Sort locks by object identifier
    locks = sorted(locks, key=lambda x: id(x))

    # Make sure lock order of previously acquired locks is not violated
    acquired = getattr(_local,'acquired',[])
    if acquired and max(id(lock) for lock in acquired) >= id(locks[0]):
        raise RuntimeError('Lock Order Violation')

    # Acquire all of the locks
    acquired.extend(locks)
    _local.acquired = acquired

    try:
        for lock in locks:
            lock.acquire()
        yield
    finally:
        # Release locks in reverse order of acquisition
        for lock in reversed(locks):
            lock.release()
        del acquired[-len(locks):]
复制代码

如何使用呢?

import threading
x_lock = threading.Lock()
y_lock = threading.Lock()

def thread_1():

    while True:
        with acquire(x_lock):
            with acquire(y_lock):
                print('Thread-1')

def thread_2():
    while True:
        with acquire(y_lock):
            with acquire(x_lock):
                print('Thread-2')

t1 = threading.Thread(target=thread_1)
t1.daemon = True
t1.start()

t2 = threading.Thread(target=thread_2)
t2.daemon = True
t2.start()
复制代码

看到没有,表面上thread_1的先获取锁x,再获取锁y,而thread_2是先获取锁y,再获取x
可是实际上,acquire函数,已经对xy两个锁进行了排序。因此thread_1hread_2都是以同一顺序来获取锁的,是否是形成死锁的。


. 饱受争议的GIL(全局锁)

在第一章的时候,我就和你们介绍到,多线程和多进程是不同的。

多进程是真正的并行,而多线程是伪并行,实际上他只是交替执行。

是什么致使多线程,只能交替执行呢?是一个叫GILGlobal Interpreter Lock,全局解释器锁)的东西。

什么是GIL呢?

任何Python线程执行前,必须先得到GIL锁,而后,每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行。这个GIL全局锁实际上把全部线程的执行代码都给上了锁,因此,多线程在Python中只能交替执行,即便100个线程跑在100核CPU上,也只能用到1个核。

须要注意的是,GIL并非Python的特性,它是在实现Python解析器(CPython)时所引入的一个概念。而Python解释器,并非只有CPython,除它以外,还有PyPyPsycoJPythonIronPython等。

在绝大多数状况下,咱们一般都认为 Python == CPython,因此也就默许了Python具备GIL锁这个事。

都知道GIL影响性能,那么如何避免受到GIL的影响?

  • 使用多进程代替多线程。
  • 更换Python解释器,不使用CPython



相关文章
相关标签/搜索