资源共享
1块资源可能会被多个线程共享,也就是多个线程可能会访问同一块资源
好比多个线程访问同一个对象、同一个变量、同一个文件
当多个线程访问同一块资源时,很容易引起
数据错乱和数据安全问题
1、解决方案
解决方案:使用线程同步技术(同步,就是协同步调,按预约的前后次序进行)
常见的线程同步技术是:加锁
一、OSSpinLock
OSSpinLock叫作”自旋锁”,等待锁的线程会处于忙等(busy-wait)状态,一直占用着CPU资源
目前已经再也不安全,可能会出现优先级反转问题
若是等待锁的线程优先级较高,它会一直占用着CPU资源,优先级低的线程就没法释放锁
须要导入头文件#import<libkern/OSAtomic.h>
二、os_unfair_lock
os_unfair_lock用于取代不安全的OSSpinLock,从iOS10开始才支持
从底层调用看,等待os_unfair_lock锁的线程会处于休眠状态,并不是忙等
须要导入头文件#import<os/lock.h>
三、pthread_mutex
mutex叫作”互斥锁”,等待锁的线程会处于休眠状态
须要导入头文件#import<pthread.h>
pthread_mutex–普通锁
pthread_mutex–递归锁
pthread_mutex–条件
四、NSLock
五、NSRecursiveLock
NSRecursiveLock也是对mutex递归锁的封装,API跟NSLock基本一致web
六、NSCondition
NSCondition是对mutex和cond的封装
七、NSConditionLock
NSConditionLock是对NSCondition的进一步封装,能够设置具体的条件值
八、dispatch_semaphore
semaphore叫作”信号量”
信号量的初始值,能够用来控制线程并发访问的最大数量
信号量的初始值为1,表明同时只容许1条线程访问资源,保证线程同步
九、dispatch_queue(DISPATCH_QUEUE_SERIAL)
直接使用GCD的串行队列,也是能够实现线程同步的
十、@synchronized
@synchronized是对mutex递归锁的封装
@synchronized(obj)内部会生成obj对应的递归锁,而后进行加锁、解锁操做
2、iOS线程同步方案性能比较
原则:
普通锁比递归锁性能好
语言越高级,封装的逻辑越多,性能也就越差(全部语言都如此)
实际测试
性能从高到低排序
os_unfair_lock // 缺点:iOS10才支持
OSSpinLock // 缺点:可能出现优先级反转 已经再也不安全 苹果也不推荐使用
dispatch_semaphore // 推荐使用
pthread_mutex // 优势:跨平台 互斥锁(普通锁) 推荐使用
dispatch_queue(DISPATCH_QUEUE_SERIAL) // c
NSLock // oc
NSCondition // oc
pthread_mutex(recursive) // 递归锁
NSRecursiveLock // oc
NSConditionLock // oc
@synchronized // 递归锁 oc
自旋锁:等待状态处于忙等
互斥锁:等待状态处于休眠
一、什么状况使用自旋锁比较划算?
预计线程等待锁的时间很短
加锁的代码(临界区)常常被调用,但竞争状况不多发生
CPU资源不紧张
多核处理器
二、什么状况使用互斥锁比较划算?
预计线程等待锁的时间较长
单核处理器
临界区有IO操做
临界区代码复杂或者循环量大
临界区竞争很是激烈
4、读写锁
场景:
同一时间,只能有1个线程进行写的操做
同一时间,容许有多个线程进行读的操做
同一时间,不容许既有写的操做,又有读的操做
上面的场景就是典型的“多读单写”,常常用于文件等数据的读写操做,iOS中的实现方案有:
一、读写锁:
pthread_rwlock
等待锁的线程会进入休眠安全

二、dispatch_barrier_async并发
这个函数传入的并发队列必须是本身经过dispatch_queue_cretate建立的app
若是传入的是一个串行或是一个全局的并发队列,那这个函数便等同于dispatch_async函数的效果async
