python中的内存管理

引用计数和垃圾回收机制:http://www.cnblogs.com/vamei/p/3232088.htmlhtml

内存池机制:http://developer.51cto.com/art/201007/213585.htmpython

python的内存管理机制主要包括引用计数机制、垃圾回收机制、内存池机制。缓存

引用计数机制:函数

    对于常见的赋值语句,如a=1。整数1为对象,而a是一个引用。利用赋值语句,引用a指向对象1.可使用内置函数id()返回对象的内存地址。在python中,整数和短小的字符,python都会缓存这些对象,以便重复使用。长的字符串和其余对象能够有多个相同的对象,可使用赋值语句建立出新的对象。当咱们建立多个等于1的引用时,其实是让全部这些引用指向同一个对象。为了检验两个引用指向同一个对象,咱们能够用is关键字。is用于判断两个引用所指向的对象是否相同。
spa

    在python中,每一个对象都有存有指向该对象的引用总数,及引用计数。咱们可使用sys包中的getrefcount()来查看某个对象的引用计数。须要注意的是,当使用某个引用做为参数传递给getrefcount()时,参数实际上建立了一个临时的引用。所以,getrefcount()所获得的结果,会比指望的多1.code

    python的一个容器对象,好比列表,词典等,能够包括多个对象。实际上,容器对象中包含的并非元素对象自己,是指向各个元素对象的引用。orm

    某个对象的引用计数可能减小。好比,可使用del关键字删除某个引用:>>>a=[1,2,3]  >>>b=a   >>>del ahtm

del也能够用于删除容器元素中的元素,好比:del a[0]
对象

    若是某个引用指向对象A,当这个引用被从新定向到某个其余对象B时,对象A的引用计数减小:blog

    >>>a=[1,2,3]    >>>b=a     >>>sys.getrefcount(b)   >>>a=1     >>>getrefcount(b)


垃圾回收机制:

   当python中的对象愈来愈多,它们将占据愈来愈大的内存,python会启动垃圾回收机制。从基本原理上,当python的某个对象的引用计数降为0时,说明没有任何引用指向该对象,该对象就成为要被回收的垃圾了。例如:

>>>a=[1,2,3]

>>>del a

del a后,已经没有任何引用指向以前创建的[1,2,3]这个表。用户不可能经过任何方式接触或者动用这个对象。当垃圾回收启动时,python扫描到这个引用计数为0的对象,就将它所占据的内存清空。

    垃圾回收时,Python不能进行其它的任务。频繁的垃圾回收将大大下降Python的工做效率。若是内存中的对象很少,就没有必要总启动垃圾回收。因此,Python只会在特定条件下,自动启动垃圾回收。当Python运行时,会记录其中分配对象(object allocation)和取消分配对象(object deallocation)的次数。当二者的差值高于某个阈值时,垃圾回收才会启动。

    咱们能够经过gc模块的get_threshold()方法,查看该阈值:

import gc
print(gc.get_threshold())

返回(700, 10, 10),后面的两个10是与分代回收相关的阈值,后面能够看到。700便是垃圾回收启动的阈值。能够经过gc中的set_threshold()方法从新设置。咱们也能够手动启动垃圾回收,即便用gc.collect()

Python同时采用了分代(generation)回收的策略。这一策略的基本假设是,存活时间越久的对象,越不可能在后面的程序中变成垃圾。咱们的程序每每会产生大量的对象,许多对象很快产生和消失,但也有一些对象长期被使用。出于信任和效率,对于这样一些“长寿”对象,咱们相信它们的用处,因此减小在垃圾回收中扫描它们的频率。

Python将全部的对象分为0,1,2三代。全部的新建对象都是0代对象。当某一代对象经历过垃圾回收,依然存活,那么它就被纳入下一代对象。垃圾回收启动时,必定会扫描全部的0代对象。若是0代通过必定次数垃圾回收,那么就启动对0代和1代的扫描清理。当1代也经历了必定次数的垃圾回收后,那么会启动对0,1,2,即对全部对象进行扫描。

这两个次数即上面get_threshold()返回的(700, 10, 10)返回的两个10。也就是说,每10次0代垃圾回收,会配合1次1代的垃圾回收;而每10次1代的垃圾回收,才会有1次的2代垃圾回收。

一样能够用set_threshold()来调整,好比对2代对象进行更频繁的扫描。

import gc
gc.set_threshold(700, 10, 5)

孤立的引用环:

引用环的存在会给上面的垃圾回收机制带来很大的困难。这些引用环可能构成没法使用,但引用计数不为0的一些对象。为了回收这样的引用环,Python复制每一个对象的引用计数,能够记为gc_ref。假设,每一个对象i,该计数为gc_ref_i。Python会遍历全部的对象i。对于每一个对象i引用的对象j,将相应的gc_ref_j减1。在结束遍历后,gc_ref不为0的对象,和这些对象引用的对象,以及继续更下游引用的对象,须要被保留。而其它的对象则被垃圾回收。

内存池机制:

在Python中,许多时候申请的内存都是小块的内存,这些小块内存在申请后,很快又会被释放,因为这些内存的申请并非为了建立对象,因此并无对象一级的内存池机制。

这就意味着Python在运行期间会大量地执行malloc和free的操做,频繁地在用户态和核心态之间进行切换,这将严重影响Python的执行效率。为了加速Python的执行效率,Python引入了一个内存池机制,用于管理对小块内存的申请和释放。这也就是以前提到的Pymalloc机制。

在Python 2.5中,Python内部默认的小块内存与大块内存的分界点定在256个字节,这个分界点由前面咱们看到的名为SMALL_REQUEST_THRESHOLD的符号控制。

也就是说,当申请的内存小于256字节时,PyObject_Malloc会在内存池中申请内存;当申请的内存大于256字节时,PyObject_Malloc的行为将蜕化为malloc的行为。固然,经过修改Python源代码,咱们能够改变这个默认值,从而改变Python的默认内存管理行为。

在一个对象的引用计数减为0时,与该对象对应的析构函数就会被调用。

可是要特别注意的是,调用析构函数并不意味着最终必定会调用free释放内存空间,若是真是这样的话,那频繁地申请、释放内存空间会使 Python的执行效率大打折扣(更况且Python已经多年背负了人们对其执行效率的不满)。通常来讲,Python中大量采用了内存对象池的技术,使用这种技术能够避免频繁地申请和释放内存空间。所以在析构时,一般都是将对象占用的空间归还到内存池中。

"这个问题就是:Python的arena历来不释放pool。这个问题为何会引发相似于内存泄漏的现象呢。考虑这样一种情形,申请10*1024*1024个16字节的小内存,这就意味着必须使用160M的内存,因为Python没有默认将前面提到的限制内存池的WITH_MEMORY_LIMITS编译符号打开,因此Python会彻底使用arena来知足你的需求,这都没有问题,关键的问题在于过了一段时间,你将全部这些16字节的内存都释放了,这些内存都回到arena的控制中,彷佛没有问题。

可是问题偏偏就在这时出现了。由于arena始终不会释放它维护的pool集合,因此这160M的内存始终被Python占用,若是之后程序运行中不再须要160M如此巨大的内存,这点内存岂不是就浪费了?"

Python内存管理规则:del的时候,把list的元素释放掉,把管理元素的大对象回收到py对象缓冲池里。

相关文章
相关标签/搜索