Python-线程(2)

GIL全局解释器锁

在Cpython解释器中,同一个进程下开启的多线程,同一时刻只能有一个线程执行,没法利用多核优点编程

首先须要明确的一点是GIL并非Python的特性,它是在实现Python解析器(CPython)时所引入的一个概念。就比如C++是一套语言(语法)标准,可是能够用不一样的编译器来编译成可执行代码。>有名的编译器例如GCC,INTEL C++,Visual C++等。Python也同样,一样一段代码能够经过CPython,PyPy,Psyco等不一样的Python执行环境来执行。像其中的JPython就没有GIL。然而由于CPython是大部分环境下默认的Python执行环境。因此在不少人的概念里CPython就是Python,也就想固然的把GIL归结为Python语言的缺陷。因此这里要先明确一点:GIL并非Python的特性,Python彻底能够不依赖于GIL安全

GIL 本质上就是一把互斥锁,将并发运行编程串行,以此来控制同一时间内共享的数据只能被一个任务锁修改,进而保证数据的安全多线程

能够确定的是,保护数据的安全,就应该加锁并发

'''
验证全局解释器锁
'''
import time
from threading import Thread,current_thread

n = 100

def task():
    global n
    n2 = n
    # 全局解释器锁碰到 IO阻塞就切换cpu执行并解锁
    time.sleep(1)
    n = n2 - 1
    print(n,current_thread().name)

for line in range(100):
    t = Thread(target=task)
    t.start()

GIL 与 Lock

为何有了解释器的锁来保证同一时间只能有一个线程来执行,为何还须要有线程的lock锁?app

首先,咱们要达成共识,锁的目的就是为了保护数据,同一时间只能有一个线程来修改共享的数据性能

而后,咱们就能够获得结论:保护不一样的数据咱们须要加不一样的锁测试

那么 GIL 与Lock是两把锁,保护的数据不同,GIL是解释器里的,保护的是解释器级别的数据,好比垃圾回收的数据,Lock是保护用户本身开发的应用程序的数据,很明显GIL本身不负责这件事,只能用户自定义加锁处理,即Lock大数据

当咱们在没有IO的程序里面(纯计算)不加锁不会存在锁的错乱问题,由于GIL限制了同一时刻只能让一个线程执行,因此不用加锁ui

当咱们在IO密集的程序里面,不加锁会致使数据安全问题,由于程序遇到IO cpu会切断使用权,让另外一个线程执行,那么这时候另外一个线程拿到的数据仍是以前的一份,不是最新的,致使全部线程修改数据不是正确的,引发数据安全问题,因此这个时候加上线程锁来保证这个数据安全

多进程 VS 多线程

站在两个角度看问题

计算密集型:

​ 单核:

​ 开启进程:消耗资源大

​ 开启线程:消耗资源小于进程

​ 多核:

​ 开启进程:并行执行,效率高

​ 开启线程:并发执行,效率低

IO密集型:

​ 单核:

​ 开启进程:消耗资源大

​ 开启线程:消耗资源小于进程

​ 多核:

​ 开启进程:并行执行,效率小于多线程,由于遇到IO会当即切换CPU的执行权限

​ 开启线程:并发执行,效率高于多进程

# coding=utf-8

from multiprocessing import Process
from threading import Thread
import os
import time

# 计算密集型
def work1():
    num = 0
    for i in range(40000000):
        num += 1

# IO密集型
def work2():
    time.sleep(1)

if __name__ == '__main__':
    # 测试计算密集型
    start_time = time.time()
    ls = []
    for i in range(10):
        # 测试多进程
        p = Process(target=work1)       # 程序执行时间为7.479427814483643
        # 测试多线程
        # p = Thread(target=work1)       # 程序执行时间为28.56563377380371
        ls.append(p)
        p.start()
    for l in ls:
        l.join()

    end_time = time.time()
    print(f"程序执行时间为{end_time - start_time}")

    # 测试计算密集型结论:
    # 在计算较小数据时候使用多线程效率高
    # 在计算较大数据时候使用多进程效率高

    # 测试IO密集型
    start_time = time.time()
    ls = []
    for i in range(10):
        # 测试多进程
        # p = Process(target=work2)       # 程序执行时间为2.749157190322876
        # 测试多线程
        p = Thread(target=work2)  # 程序执行时间为1.0130579471588135
        ls.append(p)
        p.start()
    for l in ls:
        l.join()

    end_time = time.time()
    print(f"程序执行时间为{end_time - start_time}")

    # 测试IO密集型结论:
    # 使用多线程效率要比使用多进程效率高

计算密集型状况下:

​ 在计算较小数据时候使用多线程效率高

​ 在计算较大数据时候使用多进程效率高

IO密集型状况下:

​ 使用多线程效率要比使用多进程效率高

高效执行程序:

​ 使用多线程和多进程

这里打个比方:

一个工人至关于cpu,工厂原材料就至关于线程。

此时计算至关于工人在干活,I/O阻塞至关于为工人干活提供所需原材料的过程,工人干活的过程当中若是没有原材料了,则工人干活的过程须要中止,直到等待原材料的到来。

若是你的工厂干的大多数任务都要有准备原材料的过程(I/O密集型),那么你有再多的工人,意义也不大,还不如一我的,在等材料的过程当中让工人去干别的活,

反过来说,若是你的工厂原材料都齐全,那固然是工人越多,效率越高

结论:

对计算机来讲:CPU越多越好,可是对于IO来讲,再多的CPU也没用

对于程序来讲:随着CPU的增多执行效率确定会有所提升(无论提升多大,总会有所提升)

假设咱们有四个任务须要处理,处理方式确定是要玩出并发的效果,解决方案能够是:

方案一:开启四个进程

方案二:一个进程下,开启四个线程

结果:

​ 单核:

​ 若四个任务是计算密集型,方案一增长了建立进程时间,方案二远小于方案一,方案二胜

​ 若四个任务是I/O密集型,方案一也增长了建立进程时间,且进程切换速度还不如线程,因此方 案二又胜

​ 多核:

​ 若四个任务是计算密集型,多核 开多个进程一块儿计算是并行计算,在线程中执行用不上多核, 那么方案一效率高,方案一胜

​ 若四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜

结论:

​ 如今的计算机基本上都是多核,python对于计算密集型的程序来讲,开多线程的效率并不能带来多 大性能的提高,甚至还不如串行,可是对于I/O密集型的程序来讲,开多线程效率就明显提高

多线程用于I/O密集型:例如Socket、爬虫、Web

多进程用于计算密集型,如金融分析,数据分析

死锁现象

# coding=utf-8

from threading import Lock,Thread,current_thread
import time

mutex_a = Lock()
mutex_b = Lock()

class MyThread(Thread):
    # 线程执行任务
    def run(self):
        self.work1()
        self.work2()

    def work1(self):
        mutex_a.acquire()
        print(f"{self.name} 抢到了锁a")
        mutex_b.acquire()
        print(f"{self.name} 抢到了锁b")
        mutex_b.release()
        print(f"{self.name} 释放了锁b")
        mutex_a.release()
        print(f"{self.name} 释放了锁a")

    def work2(self):
        mutex_b.acquire()
        print(f"{self.name} 抢到了锁b")
        
        # 模拟IO操做
        time.sleep(1)
        mutex_a.acquire()
        print(f"{self.name} 抢到了锁a")
        mutex_a.release()
        print(f"{self.name} 释放了锁a")
        mutex_b.release()
        print(f"{self.name} 释放了锁b")

for i in range(2):
    t = MyThread()
    t.start()
    
    
Thread-1 抢到了锁a
Thread-1 抢到了锁b
Thread-1 释放了锁b
Thread-1 释放了锁a
Thread-1 抢到了锁b
Thread-2 抢到了锁a
.....卡主了

开启两个线程以后,每一个线程会抢cpu执行,
第一个线程抢到了,执行work1,抢到锁a、b,释放a、b
再回来执行work2,抢到锁b,碰到有IO阻塞,切换线程执行

到第二个线程,能够抢到锁a,可是锁还在第一个线程手里拿着
锁b么有被释放,线程二拿不到锁b,因而卡主了

递归锁

解决死锁问题,须要用到递归锁

RLock:只有一把钥匙,能够提供多个线程去使用,每次使用会计数+1,只有计数为0 的时候 才能真正释放让另外一个线程使用

能够理解为遇到IO操做以后,若是身上有这个递归锁,必须先把这个递归锁解开以后而后你再去作其余事情。

# coding=utf-8


from threading import Lock,Thread,current_thread,RLock
import time

# mutex_a = Lock()
# mutex_b = Lock()
mutex_a = mutex_b = RLock()

class MyThread(Thread):
    # 线程执行任务
    def run(self):
        self.work1()
        self.work2()

    def work1(self):
        mutex_a.acquire()
        print(f"{self.name} 抢到了锁a")
        mutex_b.acquire()
        print(f"{self.name} 抢到了锁b")
        mutex_b.release()
        print(f"{self.name} 释放了锁b")
        mutex_a.release()
        print(f"{self.name} 释放了锁a")

    def work2(self):
        mutex_b.acquire()
        print(f"{self.name} 抢到了锁b")
        # 模拟IO操做
        time.sleep(1)
        mutex_a.acquire()
        print(f"{self.name} 抢到了锁a")
        mutex_a.release()
        print(f"{self.name} 释放了锁a")
        mutex_b.release()
        print(f"{self.name} 释放了锁b")

for i in range(2):
    t = MyThread()
    t.start()


Thread-1 抢到了锁a
Thread-1 抢到了锁b
Thread-1 释放了锁b
Thread-1 释放了锁a
Thread-1 抢到了锁b

Thread-1 抢到了锁a
Thread-1 释放了锁a
Thread-1 释放了锁b
Thread-2 抢到了锁a
Thread-2 抢到了锁b
Thread-2 释放了锁b
Thread-2 释放了锁a
Thread-2 抢到了锁b

Thread-2 抢到了锁a
Thread-2 释放了锁a
Thread-2 释放了锁b

信号量

Semaphore

互斥锁:只有一把锁,只能一我的去使用

信号量:能够自定义锁的数量,提供多我的使用

# coding=utf-8


from threading import Semaphore,Lock
from threading import current_thread
from threading import Thread
import time

# 信号量:提供5个锁
sm = Semaphore(5)

# 互斥锁:提供一个锁
mutex = Lock()

def task():
    sm.acquire()
    print(f"子线程{current_thread().name}")
    time.sleep(1)
    sm.release()


if __name__ == '__main__':
    for i in range(10):
        t = Thread(target=task)
        t.start()

# 五个五个执行
子线程Thread-1
子线程Thread-2
子线程Thread-3
子线程Thread-4
子线程Thread-5

子线程Thread-6
子线程Thread-7
子线程Thread-8
子线程Thread-9
子线程Thread-10

线程队列

FIFO:先进先出

LIFO:后进先出

优先级队列:根据参数中的数字字母排序,排在前面的优先级越高,优先取出

# coding=utf-8

import queue
from multiprocessing import Queue

# FIFO队列:先进先出
q = queue.Queue()
q.put(4)
q.put(2)
q.put(3)

print(q.get())
print(q.get())
# 4
# 2

# LIFO队列:后进先出
q = queue.LifoQueue()
q.put(1)
q.put(2)
q.put(3)

print(q.get())
print(q.get())
# 3
# 2

# 优先级队列
q = queue.PriorityQueue()
q.put(3)
q.put(2)
q.put(11)
print(q.get())
# 2
相关文章
相关标签/搜索