15

介绍

        functools模块存放着很多工具函数,大部分都是高阶函数,其作用于或返回其他函数的函数。一般来说,对于这个模块,任何可调用的对象都可以被视为函数。

1 reduce方法

        其含义是减少,它接受一个两个参数的函数,初始时从可迭代对象中取两个元素交给函数,下一次会将本次函数返回值和下一个元素传入函数进行计算,直到将可迭代对象减少为一个值,然后返回:reduce(lambda x, y: x+y, [1, 2, 3, 4, 5]) calculates ((((1+2)+3)+4)+5),

reduce(function, sequence[, initial]) -> value
  • function: 两个参数的函数
  • sequence:可迭代对象(不能为空)
  • initital:初始值(可以理解为给函数的第一个参数指定默认值),否则第一次会在可迭代对象中再取一个元素

下面是一个求1到100累加的栗子


# 普通版
In [24]: sum = 0
In [25]: for i in range(1,101):
    ...:     sum += i
    ...:
In [26]: print(sum)
5050


# 利用reduce版
In [22]: import functools
In [23]: functools.reduce(lambda x,y:x+y,range(101))
Out[23]: 5050

2 partial方法(偏函数)

        在前面学习函数参数的时候,通过设定参数的默认值,可以降低函数调用的难度。而偏函数也可以做到这一点,funtools模块中的partial方法就是将函数的部分参数固定下来,相当于为部分的参数添加了一个固定的默认值,形成一个新的函数并返回。从partial方法返回的函数,是对原函数的封装,是一个全新的函数。

注意:这里的偏函数和数学意义上的偏函数不一样。

partial(func, *args, **keywords) - 返回一个新的被partial函数包装过的func,并带有默认值的新函数

2.1 partial方法基本使用

In [27]: import functools
    ...: import inspect
    ...:
    ...:
    ...: def add(x, y):
    ...:     return x + y
    ...:
    ...:
    ...: new_add = functools.partial(add,1)
    ...: print(new_add)
    ...:
functools.partial(<function add at 0x000002798C757840>, 1)

In [28]:
In [28]: new_add(1,2)
---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
<ipython-input-28-2d6520b7602a> in <module>
----> 1 new_add(1,2)

TypeError: add() takes 2 positional arguments but 3 were given

In [29]: new_add(1)
Out[29]: 2
  • 由于我们包装了函数add,并指定了一个默认参数1,这个参数会按照位置参数,当作默认值赋给x了
  • 所以当我们再次调用new_add,只需要传入y的值就行了。
  • 如果再传递两个,那么连同包装前传入的1,一起传给add函数,而add函数只接受两个参数,所以会报异常。

获取一个函数的参数列表,可以使用前面学习的inspect模块

In [30]: inspect.signature(new_add)
Out[30]: <Signature (y)>
  • 查看new_add的签名信息,发现,它的确只需要传入一个y就可以了。

根据前面我们所学的函数知识,我们知道函数传参的方式有很多种,利用偏函数包装后产生的新函数的传参会有所不同,下面会列举不同传参方式被偏函数包装后的签名信息。


# 最复杂的函数的形参定义方式
def add(x, y, *args, m, n, **kwargs):
    return x + y
  • add1 = functools.partial(add,x=1):包装后的签名信息(*, x=1, y, m, n, **kwargs),只接受keyword-only的方式赋值了
  • add2 = functools.partial(add,1,y=20):包装后的签名信息(*, y=20, m, n, **kwargs),1已经被包装给x了其他参数只接受keyword-only的方式赋值了
  • add3 = functools.partial(add,1,2,3,m=10,n=20,a=30,b=40):包装后的签名信息(*args, m=10, n=20, **kwargs),1给了x,2给了y, 3给了args,可以直接调用add3,而不用传递任何参数
  • add4 = functools.partial(add,m=10,n=20,a='10'):包装后的签名信息(x, y, *args, m=10, n=20, **kwargs),a='10'已被kwargs收集,依旧可以使用位置加关键字传递实参。

2.2 partial原码分析

上面我们已经了解了partial的基本使用,下面我们来学习一下partial的原码,看它到底是怎么实现的,partial的原码存在于documentation中,下面是原码:

def partial(func, *args, **keywords):
    def newfunc(*fargs, **fkeywords):
        newkeywords = keywords.copy()    # 偏函数包装时指定的位置位置参数进行拷贝
        newkeywords.update(fkeywords)    # 将包装完后,传递给偏函数的关键字参数更新到keyword字典中去(key相同的被替换)
        return func(*args, *fargs, **newkeywords)  # 把偏函数包装的位置参数优先传递给被包装函数,然后是偏函数的位置参数,然后是关键字参数
    newfunc.func = func    # 新增函数属性,将被包装的函数绑定在了偏函数上,可以直接通过偏函数的func属性来调用原函数
    newfunc.args = args    # 记录包装指定的位置参数
    newfunc.keywords = keywords # 记录包装指定的关键字参数
    return newfunc

上面是偏函数的原码注释,如果不是很理解,请看下图
partial

2.3 functools.warps实现分析

现在我们在来看一下functools.warps函数的原码实现,前面我们已经说明了,它是用来拷贝函数签名信息的装饰器,它在内部是使用了偏函数实现的。

def wraps(wrapped,
          assigned = WRAPPER_ASSIGNMENTS,
          updated = WRAPPER_UPDATES):

    return partial(update_wrapper, wrapped=wrapped,
                   assigned=assigned, updated=updated)  

使用偏函数包装了update_wrapper函数,并设置了下面参数的默认值:

  • wrapped=wrapped:将传入给wraps的函数,使用偏函数,当作update_wrapper的默认值。
  • assigned=assigned:要拷贝的信息'__module__', '__name__', '__qualname__', '__doc__','__annotations__'
  • updated=updated: 这里使用的是'__dict__',用来拷贝函数的属性信息

__dict__是用来存储对象属性的一个字典,其键为属性名,值为属性的值

下面来看一下update_wrapper函数,因为真正执行的就是它:

def update_wrapper(wrapper,
                   wrapped,
                   assigned = WRAPPER_ASSIGNMENTS,
                   updated = WRAPPER_UPDATES):
    for attr in assigned:
        try:
            value = getattr(wrapped, attr)
        except AttributeError:
            pass
        else:
            setattr(wrapper, attr, value)
    for attr in updated:
        getattr(wrapper, attr).update(getattr(wrapped, attr, {}))
    wrapper.__wrapped__ = wrapped   # 将被包装的函数,绑定在__wrapped__属性上。
    return wrapper
  • update_wrapper在外层被wraps包装,实际上只需要传入wrapper即可
  • 后面的代码可以理解为是通过反射获取wrapped的属性值,然后update到wrapper中(拷贝属性的过程)
  • 最后返回包装好的函数wrapper

update_wrapper返回的就是我们的wrapper对象,所以如果不想用wraps,我们可以直接使用update_wrapper

import time
import datetime
import functools

def logger(fn):
    # @functools.wraps(fn)  # wrapper = functools.wraps(fn)(wrapper)
    def wrapper(*args, **kwargs):
        start = datetime.datetime.now()
        res = fn(*args, **kwargs)
        total_seconds = (datetime.datetime.now() - start).total_seconds()
        print('函数:{} 执行用时:{}'.format(wrapper.__name__,total_seconds))
        return res

    wrapper = functools.update_wrapper(wrapper, fn)  # 这里进行调用,但是很难看有木有?
    return wrapper

@logger
def add(x, y):
    time.sleep(2)
    return x + y

add(4,5)

这里之所以使用偏函数实现,是因为对于拷贝这个过程来说,要拷贝的属性一般是不会改变的,那么针对这些不长改变的东西进行偏函数包装,那么在使用起来会非常方便,我觉得这就是偏函数的精髓吧。

结合前面参数检查的例子,来加深functools.wraps的实现过程理解。

def check(fn):
    @functools.wraps(fn) 
    def wrapper(*args, **kwargs):
        sig = inspect.signature(fn) 
        params = sig.parameters  
        values = list(params.values()) 
        for i, k in enumerate(args): 
            if values[i].annotation != inspect._empty: 
                if not isinstance(k, values[i].annotation): 
                    raise ('Key Error')
        for k, v in kwargs.items():
            if params[k].annotation != inspect._empty:
                if not isinstance(v, params[k].annotation):
                    raise ('Key Error')
        return fn(*args, **kwargs)

    return wrapper
  • @functools.wraps(fn) 表示一个有参装饰器,在这里实际上等于:wrapper = functools.wraps(fn)(wrapper)
  • functools.wraps(fn) 的返回值就是偏函数update_wrapper , 所以也可以理解为这里实际上:update_wrapper(wrapper)
  • update_wrapper 在这里将wrapped的属性(也就是fn),拷贝到了wrapper上,并返回了wrapper。

经过上述数说明 @functools.wraps(fn) 就等价于 wrapper = update_wrapper(wrapper),那么再来看拷贝的过程,就很好理解了。

3 lsu_cache方法

        学习lsu_cache方法,那么不得不提cache,那什么是cache呢?我们说数据是存放在磁盘上的,CPU如果需要提取数据那么需要从磁盘上拿,磁盘速度很慢,直接拿的话,就很耗时间,所以操作系统会把一些数据提前存储到内存中,当CPU需要时,直接从内存中读取即可,但是内存毕竟是有限的,不是所有空间都用来存这些数据,所以内存中的一小部分用来存储磁盘上读写频繁的数据的空间,就可以简单的理解为cache(这里就不提CPU的L1,L2,L3 cache了).
        lsu_cache方法简单来说,就是当执行某一个函数时,把它的计算结果缓存到cache中,当下次调用时,就直接从缓存中拿就可以了,不用再次进行计算。这种特性对于那种计算非常耗时的场景时非常友好的。

把函数的计算结果缓存,需要的时候直接调用,这种模式该如何实现呢?简单来讲就是通过一个东西来获取它对应的值,是不是和字典的元素很像?通过一个key获取它对应的value!实际上大多数缓存软件都是这种key-value结构!!!

3.1 基本使用

它作为装饰器作用于需要缓存的函数,用法格式如下:

functools.lru_cache(maxsize=128, typed=False)
  • maxsize:限制不同参数和结果缓存的总量,如果设置为None,则禁用LRU功能,并且缓存可以无限制增长,当maxsize是二的幂时,LRU功能执行的最好,当超过maxsize设置的总数量时,LRU会把最近最少用的缓存弹出的。
  • typed:如果设置为True,则不同类型的函数参数将单独缓存,例如f(3)和f(3.0)将被视为具有不同结果的不同调用

使用被装饰的函数.cache_info()来查看缓存命中的次数,以及结果缓存的数量。

In [33]: import functools

In [34]: @functools.lru_cache()
    ...: def add(x: int, y: int) -> int:
    ...:     time.sleep(2)
    ...:     return x + y
    ...:

In [35]: import time

In [36]: add.cache_info()   # 没有执行,没有缓存,也就没有命中了
Out[36]: CacheInfo(hits=0, misses=0, maxsize=128, currsize=0)

In [37]: add(4,5)    # 执行一次,缓存中不存在,所以miss1次,本次结果将会被缓存
Out[37]: 9

In [38]: add.cache_info()   # 验证缓存信息,currsize表示当前缓存1个,misses表示错过1次
Out[38]: CacheInfo(hits=0, misses=1, maxsize=128, currsize=1)

In [39]: add(4,5)  # 本次执行速度很快,因为读取的是缓存,被命中一次,所以瞬间返回
Out[39]: 9

In [40]: add.cache_info()  # 命中加1次
Out[40]: CacheInfo(hits=1, misses=1, maxsize=128, currsize=1)

cache_info各参数含义:

  • hits: 缓存命中次数。当次传入计算的参数,如果在缓存中存在,则表示命中
  • misses: 未命中次数。当次传入计算的参数,如果在缓存中存在,则表示未命中
  • maxsize:表示缓存的key最大数量
  • currsize:已经缓存的key的数量

3.2 lru_cache原码分析


def lru_cache(maxsize=128, typed=False):
    if maxsize is not None and not isinstance(maxsize, int):
        raise TypeError('Expected maxsize to be an integer or None')

    def decorating_function(user_function):
        wrapper = _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo)
        return update_wrapper(wrapper, user_function)

    return decorating_function

        这里的返回的 decorating_function 函数中返回的 update_wrapper 是不是看起来很熟悉,没错,这里同样利用了偏函数对被包装函数的属性签名信息进行了拷贝,而传入的wrapper是才是缓存的结果,所以我们进一步查看_lru_cache_wrapper到底是怎么完成缓存的。

def _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo):
    ... ...

    cache = {}
    hits = misses = 0
    full = False

    ... ...

    def wrapper(*args, **kwds):
        # Size limited caching that tracks accesses by recency
        nonlocal root, hits, misses, full
        key = make_key(args, kwds, typed)
        with lock:
       
    ... ...

        这里截取部分代码进行简要说明:cache是个字典,那么就印证了之前我们的设想,的确是使用字典key-value的形式进行缓存的。字典的key是来自于make_key函数的,那么我们接下来看一看这个函数都做了哪些事

def _make_key(args, kwds, typed,
             kwd_mark = (object(),),
             fasttypes = {int, str, frozenset, type(None)},
             tuple=tuple, type=type, len=len):
    key = args
    if kwds:     # 在使用关键字传参时,遍历kwds
        key += kwd_mark  # 使用一个特殊的对象obkect() 来 作为位置传参和关键字传参的'分隔符'
        for item in kwds.items():
            key += item
    if typed:
        key += tuple(type(v) for v in args)
        if kwds:
            key += tuple(type(v) for v in kwds.values())
    elif len(key) == 1 and type(key[0]) in fasttypes:
        return key[0]
    return _HashedSeq(key)
  • args: 是我们给函数进行的位置传参,这里是元组类型(因为不希望被修改)。
  • kwargs: 关键字传参的字典。
  • _HashedSeq: 可以理解为对hash()函数的封装,仅仅是计算构建好的key的hash值,并将这个值作为key进行存储的。

注意,这里的函数_make_key是以_开头的函数,目的仅仅是告诉你,不要擅自使用,但是为了学习cache的key是怎么生成的,我们可以直接调用它,来查看生成key的样子(这里只模拟参数的传递,理解过程即可)

In [41]: functools._make_key((1,2,3),{'a':1,'b':2},typed=False)  # 不限制类型
Out[41]: [1, 2, 3, <object at 0x2798734b0b0>, 'a', 1, 'b', 2]    # 缓存的key不带类型

In [49]: functools._HashedSeq(functools._make_key((1,2,3),{'a':1,'b':2},typed=True))     # 限制类型
Out[49]: [1, 2, 3, <object at 0x2798734b0b0>, 'a', 1, 'b', 2, int, int, int, int, int]  # 缓存的key带类型

key构建完毕了,_HashedSeq是如何对一个列表进行hash的呢?下面来阅读以下_HashedSeq原码

class _HashedSeq(list):
    __slots__ = 'hashvalue'

    def __init__(self, tup, hash=hash):
        self[:] = tup
        self.hashvalue = hash(tup)

    def __hash__(self):
        return self.hashvalue

这里发现_HashedSeq,是一个类,当对其进行hash时,实际上调用的就是它的__hash__方法,返回的是hashvalue这个值,而这个值在__init__函数中赋值时,又来自于hash函数(这不是多此一举吗,哈哈),tup是元组类型,这里还是对元组进行了hash,只是返回了一个list类型而已。这里为了测试,我们使用_HashedSeq对象的hashvalue属性和hash函数来对比生成的hash值

In [54]: value = functools._HashedSeq(functools._make_key((1,2,3),{'a':1,'b':2},typed=True))
In [55]: value
Out[55]: [1, 2, 3, <object at 0x2798734b0b0>, 'a', 1, 'b', 2, int, int, int, int, int]

In [56]: value.hashvalue
Out[56]: 3337684084446775700
In [57]: hash(value)
Out[57]: 3337684084446775700    # 这里两次执行的结果是相同的!

小结:

  1. 通过对原码分析我们知道,lru_cache是通过构建字典来完成key到value的映射的
  2. 构建字典的key来源于在_make_key函数中处理过得args,kwargs参数列表
  3. 最后对列表进行hash,得到key,然后在字典中作为key对应函数的计算机结果

由于_make_key在内部是通过args和kwargs拼接来完成key的构建的,也就是说args参数位置不同或者kwargs位置不同,构建出来的key都不相同,那么对应的hash值也就不同了!!!,这一点要特别注意

In [60]: add.cache_info()
Out[60]: CacheInfo(hits=1, misses=1, maxsize=128, currsize=1)

In [61]: add(4,5)
Out[61]: 9

In [62]: add.cache_info()
Out[62]: CacheInfo(hits=2, misses=1, maxsize=128, currsize=1)

In [63]: add(4.0,5.0)
Out[63]: 9

In [64]: add.cache_info()   # 由于我们没有对类型的限制,所以int和float构建的key是相同的,这里就命中了!
Out[64]: CacheInfo(hits=3, misses=1, maxsize=128, currsize=1)

In [65]: add(5,4) 
Out[65]: 9

In [66]: add.cache_info()    # 当5,4调换时,key不同,那么就要重新缓存了!
Out[66]: CacheInfo(hits=3, misses=2, maxsize=128, currsize=2)

3.3 斐波那契序列的lru改造

前面我们讲递归的时候,使用递归的方法编写fib序列,是非常优美的但是由于每次要重新计很多值,效率非常低,如果把计算过后的值进行缓存,那么会有什么不同的呢?

普通版:
import datetime


def fib(n):
    return 1 if n < 3 else fib(n - 1) + fib(n - 2)


start = datetime.datetime.now()
print(fib(40))
times = (datetime.datetime.now() - start).total_seconds()
print(times)  # 31.652353


lru_cache加成版本:
import datetime
import functools


@functools.lru_cache()
def fib(n):
    return 1 if n < 3 else fib(n - 1) + fib(n - 2)


start = datetime.datetime.now()
print(fib(40))
times = (datetime.datetime.now() - start).total_seconds()
print(times)  # 0.0

速度简直要起飞了!

3.4 lsu_cache的总结

lru_cache使用的前提是:

  • 同样函数参数一定得到同样的结果
  • 函数执行时间很长,且要多次执行
  • 其本质就是函数调用的参数到函数返回值的映射

缺点:

  • 不支持缓存过期,key无法过期、失效。
  • 不支持清除操作
  • 不支持分布式,是一个单机缓存

适用场景:单机上需要空间换时间的地方,可以用缓存来将计算变成快速查询。

原文地址:https://www.cnblogs.com/dachenzi/p/10487464.html