小编典典

Python内存优化技巧

python

我需要优化应用程序的RAM使用率。
请避免让我的讲座告诉我在编写Python时我不关心内存。我有一个内存问题,因为我使用了很大的默认字典(是的,我也想很快)。我当前的内存消耗为350MB,并且还在不断增长。我已经不能使用共享主机了,如果我的Apache打开更多进程,内存将增加两倍和三倍……这很昂贵。
我已经进行了 广泛的分析, 而且我确切地知道了问题所在。
我有几个带有Unicode键的大型(>
100K条目)字典。字典从140字节开始并迅速增长,但是更大的问题是密钥。Python优化了内存中的字符串(或者我已经读过),以便查找可以是ID比较(“
intern”它们)。不确定unicode字符串也是如此(我无法“实习”它们)。
存储在字典中的对象是元组列表(an_object,一个int,一个int)。

my_big_dict [some_unicode_string] .append((my_object,an_int,another_int))

我已经发现分割成几本字典是值得的,因为元组占用了大量空间…
我发现我可以通过在将字符串用作键之前对字符串进行哈希处理来节省RAM!但是,可悲的是,我在32位系统上遇到了生日冲突。(旁边的问题:我可以在32位系统上使用64位密钥字典吗?)

在Linux(生产)和Windows上都使用Python 2.6.5。关于优化字典/列表/元组的内存使用的任何技巧?我什至想到使用C-
我不在乎这小段代码是否丑陋。这只是一个单一的位置。

提前致谢!


阅读 268

收藏
2021-01-20

共1个答案

小编典典

我建议如下:将所有值存储在数据库中,并保留一个以字符串哈希为键的内存字典。如果发生冲突,请从数据库中获取值,否则(大多数情况下)使用字典。实际上,它将是一个巨大的缓存。

Python中的字典存在一个问题,即它们占用了大量空间:即使int-int字典在32位系统上每个键值对也使用 45-80字节
。同时,每对intarray.array('i')仅使用 8个字节 ,并且通过少量记账就可以实现基于数组的 int→int
字典的合理快速运行。

一旦有了内存效率高的int-int字典实现,就将您的 字符串→(对象,int,int) 字典分成三个字典,并使用哈希代替完整的字符串。您将获得一个
int→对象 和两个 int→int 字典。模仿 int→对象 字典,如下所示:保留对象列表并将对象的索引存储为 int→int 字典的值。

我的确意识到要获得基于数组的字典需要涉及大量的编码。我遇到了与您类似的问题,并且实现了一个相当快,内存效率很高的通用hash-int字典。
这是我的代码(BSD许可证)。它是基于数组的(每对8个字节),它负责密钥散列和冲突检查,它在写入过程中使数组(实际上是几个较小的数组)保持有序,并在读取时进行二进制搜索。您的代码简化为:

dictionary = HashIntDict(checking = HashIntDict.CHK_SHOUTING)
# ...
database.store(k, v)
try:
    dictionary[k] = v
except CollisionError:
    pass
# ...
try:
    v = dictionary[k]
except CollisionError:
    v = database.fetch(k)

checking参数指定发生冲突时发生的情况:在读取和写入时CHK_SHOUTING提高,CollisionError在读取时CHK_DELETING返回None,并且在写入时保持沉默,CHK_IGNORING不进行冲突检查。

接下来是对我的实现的简要说明,欢迎使用优化提示!顶层数据结构是数组的常规字典。每个数组最多包含2^16 = 65536整数对(的平方根2^32)。键k和对应的值v都存储在k/65536-th数组中。数组按需初始化,并按键保持顺序。每次读取和写入都会执行二进制搜索。冲突检查是一个选项。如果启用,尝试覆盖现有键的操作将从字典中删除键和关联的值,将该键添加到一组冲突键中,并且(再次可选)引发异常。

2021-01-20