Python之functools模块之lru_cache

Python之functools模块之lru_cache

lru_cache

  • @functools.lru_cache(maxsize=128, typed=False)
  • lru即Least-recently-used,最近最少使用。cache缓存 如果maxsize设置为None,则禁用LRU功能,并且缓存可以无限制增长。当maxsize是二的幂时,LRU功能执行得最好
  • 如果typed设置为True,则不同类型的函数参数将单独缓存。例如,f(3)和f(3.0)将被视为具有不同结果的不同调用

lru_cache本质

  • 内部使用了一个字典
  • key是由_make_key函数构造出来
from functools import _make_key
print(_make_key((4, 5), {}, False))
print(_make_key((4, 5), {}, True))
print(_make_key((4,), {'y':5}, False))
print(_make_key((), {'x':4, 'y':5}, False))
print(_make_key((), {'y':5, 'x':4}, False))
@lru_cache 
def fib(n):
    return 1 if n < 3 else fib(n-1) + fib(n-2)

# 斐波那契数列递归版本
fib(101)

# 一下就算出了斐波那契数列的第101项
# 返回结果:573147844013817084101

总结:

1.频繁使用
2.每一次获取代价高
3.一定时间内,每一次同样输入获得同样的结果,幂等性。

压力大
预热

lru_cache装饰器应用

  1. 使用前提
    1. 同样的函数参数一定得到同样的结果,至少是一段时间内,同样输入得到同样结果
    2. 计算代价高,函数执行时间很长
    3. 需要多次执行,每一次计算代价高
  2. 本质是建立函数调用的参数到返回值的映射
  3. 缺点
    1. 不支持缓存过期,key无法过期、失效
    2. 不支持清除操作
    3. 不支持分布式,是一个单机的缓存
  4. lru_cache适用场景,单机上需要空间换时间的地方,可以用缓存来将计算变成快速的查询

学习lru_cache可以让我们了解缓存背后的原理。


from functools import lru_cache

# 导入funtools模块下的lru_cache

lru_cache?
Least-recently-used cache decorator.
缓存和命中必须相关,否则要缓存有什么用?

缓存:缓存满了后,要干掉,最近最少使用的数据
缓冲:服务器处理不了海量数据,先进缓冲,缓冲是先进先出原则

import time

def add(x, y):
    print('--------')
    time.sleep(2)
    return x + y

# 没有缓存的版本
add(4, 5)

# 每次执行都休眠2秒
# 返回结果:--------
# 返回结果:9

使用lru_cache后

@lru_cache
def add(x, y):
    print('--------')
    time.sleep(2)
    return x + y

# 缓存版本
add(4, 5) 

# 加了lru_cache后第一次运行也是2秒
# 返回结果:--------
# 返回结果:9
add(4, 5) 

# 第2次命中缓存,直接给值
# 返回结果:9

你可能感兴趣的:(Python,python,开发语言)