Python内存优化的七种技巧分享
作者:我下班楽蟹老板
当您的项目规模越来越大时,高效管理内存资源就成为必然要求。遗憾的是,Python,尤其是与 C 或 C++ 等低级语言相比,似乎内存效率不够高。现在是否应该更换编程语言?当然不是。事实上,从优秀的模块和工具到先进的数据结构和算法,有很多方法可以显著优化 Python 程序的内存使用。
本文将重点介绍 Python 的内置机制,并介绍 7 种原始但有效的内存优化技巧。掌握这些技巧将大大提高你的 Python 编程能力。
1. 在类定义中使用 __slots__
Python 作为一种动态类型编程语言,在 OOP 方面有更大的灵活性。在运行时向 Python 类中添加额外的属性和方法就是一个很好的例子。
例如,下面的代码定义了一个名为 Author 的类。它最初有两个属性 name 和 age。但我们可以在稍后轻松地添加一个额外的属性:
class Author: def __init__(self, name, age): self.name = name self.age = age me = Author('Yang Zhou', 30) me.job = 'Software Engineer' print(me.job) # Software Engineer
然而,任何硬币都有两面。这种灵活性会浪费更多内存。
因为 Python 中每个类的实例都会维护一个特殊的字典 (__dict__
),用于存储实例变量。由于字典的底层是基于哈希表的实现,因此字典本身的内存效率很低,因此字典会消耗大量内存。
在大多数情况下,我们不需要在运行时更改实例的变量或方法,而且在类定义之后,__dict__
也不会被更改。因此,我们最好不要维护 __dict__
字典。
Python 为此提供了一个神奇的属性:__slots__
。
它通过指定类的所有有效属性的名称,起到白名单的作用:
class Author: __slots__ = ('name', 'age') def __init__(self, name, age): self.name = name self.age = age me = Author('Yang Zhou', 30) me.job = 'Software Engineer' print(me.job) # AttributeError: 'Author' object has no attribute 'job'
就像上面的代码,我们不能再在运行时添加工作属性了。因为 __slots__
白名单只定义了 name
和 age
两个有效属性。
从理论上讲,由于属性是固定的,Python 不需要为它维护一个字典。它只需为 __slots__
中定义的属性分配必要的内存空间即可。
让我们写一个简单的比较程序来看看它是否真的可以这样工作:
import sys class Author: def __init__(self, name, age): self.name = name self.age = age class AuthorWithSlots: __slots__ = ['name', 'age'] def __init__(self, name, age): self.name = name self.age = age # Creating instances me = Author('Yang', 30) me_with_slots = AuthorWithSlots('Yang', 30) # Comparing memory usage memory_without_slots = sys.getsizeof(me) + sys.getsizeof(me.__dict__) memory_with_slots = sys.getsizeof(me_with_slots) # __slots__ classes don't have __dict__ print(memory_without_slots, memory_with_slots) # 152 48 print(me.__dict__) # {'name': 'Yang', 'age': 30} print(me_with_slots.__dict__) # AttributeError: 'AuthorWithSlots' object has no attribute '__dict__'
如上面的代码所示,由于使用了 __slots__
,实例 me_with_slots
没有__dict__
字典。与需要保存额外字典的 me
实例相比,它有效地节省了内存资源。
2. 使用生成器
生成器是 Python 中列表的懒版本。它们的工作方式类似于元素生成工厂:每当调用 next()
方法时就生成一个项,而不是一次性计算所有项。因此,在处理大型数据集时,它们非常节省内存。
def number_generator(): for i in range(100): yield i numbers = number_generator() print(numbers) # <generator object number_generator at 0x104a57e40> print(next(numbers)) # 0 print(next(numbers)) # 1
上面的代码展示了一个编写和使用生成器的基本示例。关键字 yield
是生成器定义的核心。使用它意味着只有在调用 next()
方法时,才会产生项目 i
。
现在,让我们比较一下生成器和列表,看看哪一个更节省内存:
import sys numbers = [] for i in range(100): numbers.append(i) def number_generator(): for i in range(100): yield i numbers_generator = number_generator() print(sys.getsizeof(numbers_generator)) # 112 print(sys.getsizeof(numbers)) # 920
上述程序的结果证明,使用生成器可以大大节省内存使用量。
顺便提一下,如果我们把 list
理解的方括号转换成小括号,它就会变成一个生成器表达式。这是在 Python 中定义生成器的一种更简单的方法:
import sys numbers = [i for i in range(100)] numbers_generator = (i for i in range(100)) print(sys.getsizeof(numbers_generator)) # 112 print(sys.getsizeof(numbers)) # 920
3. 利用内存映射文件支持大文件处理
内存映射文件 I/O,简称 mmap
,是一种操作系统级优化。
维基百科:它实现了需求分页,因为文件内容不会立即从磁盘读取,最初根本不使用物理 RAM。从磁盘实际读取的操作是在访问特定位置后,以一种懒惰的方式进行的。
简单地说,当使用 mmap
技术对文件进行内存映射时,它会直接在当前进程的虚拟内存空间中创建文件的映射,而不是将整个文件加载到内存中。映射而不是加载整个文件可以节省大量内存。
看起来很复杂?幸运的是,Python 已经提供了使用这种技术的内置模块,因此我们可以轻松利用它,而无需考虑操作系统级的实现。
例如,在 Python 中如何使用 mmap
进行文件处理:
import mmap with open('test.txt', "r+b") as f: # memory-map the file, size 0 means whole file with mmap.mmap(f.fileno(), 0) as mm: # read content via standard file methods print(mm.read()) # read content via slice notation snippet = mm[0:10] print(snippet.decode('utf-8'))
如上所述,Python 使内存映射文件 I/O 技术的使用变得非常方便。我们需要做的仅仅是应用 mmap.mmap()
方法,然后使用标准文件方法甚至切片符号来处理打开的对象。
4. 尽量少用全局变量
全局变量具有全局作用域,因此只要程序运行,全局变量就会一直保留在内存中。
因此,如果一个全局变量包含一个大型数据结构,它就会在整个程序生命周期中占用内存,从而可能导致内存使用效率低下。
我们应该在 Python 代码中尽量减少全局变量的使用。
5. 利用逻辑操作符
这个技巧看似微妙,但巧妙地使用它将极大地节省程序的内存使用量。
例如,下面是一个简单的代码片段,它根据两个函数返回的布尔值得到最终结果:
result_a = expensive_function_a() result_b = expensive_function_b() result = result_a if result_a else result_b
上述代码可以正常运行,但它实际上执行了两个内存不足的函数。
获得相同结果的更聪明的方法如下:
result = expensive_function1() or expensive_function2()
由于逻辑运算符遵循短路评估规则,如果 expensive_function1()
为 True
,则不会执行上述代码中的 expensive_function2()
。这将节省不必要的内存使用。
6. 谨慎选择数据类型
资深的 Python 开发人员会谨慎而精确地选择数据类型。因为在某些情况下,使用一种数据类型比使用另一种数据类型更节省内存。
元组比列表更节省内存
鉴于元组是不可变的(创建后不能更改),它允许 Python 在内存分配方面进行优化。然而,列表是可变的,因此需要额外的空间来容纳潜在的修改。
import sys my_tuple = (1, 2, 3, 4, 5) my_list = [1, 2, 3, 4, 5] print(sys.getsizeof(my_tuple)) # 80 print(sys.getsizeof(my_list)) # 120
如上面的代码段所示,即使包含相同的元素,元组 my_tuple
使用的内存也比 list
少。
因此,如果在创建后不需要更改数据,我们应该首选元组而不是列表。
数组比 list 更节省内存
Python 中的数组要求元素具有相同的数据类型(例如,所有整数或所有浮点数),但列表可以存储不同类型的对象,这就不可避免地需要更多内存。
因此,如果列表的元素都是同一类型,使用数组会更节省内存:
import sys import array my_list = [i for i in range(1000)] my_array = array.array('i', [i for i in range(1000)]) print(sys.getsizeof(my_list)) # 8856 print(sys.getsizeof(my_array)) # 4064
优秀的数据科学模块比内置数据类型更高效
Python 是数据科学的统治语言。有许多强大的第三方模块和工具提供了更多的数据类型,如 NumPy 和 Pandas。
如果我们只需要一个简单的一维数组,而不需要 NumPy 提供的广泛功能,那么 Python 的内置数组可能是一个不错的选择。
但如果需要进行复杂的矩阵操作,使用 NumPy 提供的数组可能是所有数据科学家的首选,也可能是最佳选择。
7. 对相同字符串应用字符串互文技术
下面的代码会让很多开发人员感到困惑:
>>> a = 'Y'*4096 >>> b = 'Y'*4096 >>> a is b True >>> c = 'Y'*4097 >>> d = 'Y'*4097 >>> c is d False
我们知道,is
运算符用于检查两个变量是否指向内存中的同一个对象。它与 ==
运算符不同,后者用于比较两个对象是否具有相同的值。
那么,为什么 a is b
得到的是 True
,而 c is d
得到的却是 False
呢?
如果有几个小字符串的值相同,Python 就会隐式地对它们进行内联,并引用内存中的同一个对象。
定义小字符串的神奇数字是 4096。因为 c 和 d 的长度都是 4097,所以它们在内存中是两个对象,而不是一个。不再有隐式字符串互调。因此,当执行 c 是 d 时,我们会得到一个 False。
字符串互调是一种优化内存使用的强大技术。如果我们想显式地进行字符串互调,sys.intern()
方法就很好用:
>>> import sys >>> c = sys.intern('Y'*4097) >>> d = sys.intern('Y'*4097) >>> c is d True
顺便说一下,除了字符串互调,Python 还将互调技巧应用于小整数。我们还可以利用它来优化内存。
以上就是Python内存优化的七种技巧分享的详细内容,更多关于Python内存优化的资料请关注脚本之家其它相关文章!