如何有效地迭代迭代器上的“n-wise”

可能是重复,但我找不到任何东西.

我有一个很长的迭代器(10000项),我需要迭代它〜一次500项.因此,如果我的迭代器是范围(10000),它将如下所示:

Iteration #1: 0, 1, 2, ... 497, 498, 499
Iteration #2: 1, 2, 3, ... 498, 499, 500
Iteration #3: 2, 3, 4, ... 499, 500, 501
Iteration #4: 3, 4, 5, ... 500, 501, 502
...
Iteration #9500: 9499, 9500, 9501 ... 9996, 9997, 9998
Iteration #9501: 9500, 9501, 9502 ... 9997, 9998, 9999

等等.有这种方法:

def nwise_slice(lst, n):
    for i in range(len(lst) - n + 1):
        yield lst[i:i + n]

但是,这不适用于惰性迭代器.我尝试使用迭代器创建一个解决方案,并从itertools中成对调整并使用配方(参见here)来创建:

import itertools

def nwise_iter(lst, n):
    iters = itertools.tee(lst, n)
    for idx, itr in enumerate(iters):
        next(itertools.islice(itr, idx, idx), None)

    for group in zip(*iters):
        yield group

它做同样的事情(虽然产生一个元组而不是一个列表,这对我来说无关紧要).我也相信它不会产生很多不必要的切片.此解决方案适用于不可切片的迭代器,如文件(我计划使用).但是,itertools解决方案速度慢了2倍:

In [4]: %timeit list(nwise_slice(list(range(10000)), 500))
46.9 ms ± 729 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)

In [5]: %timeit list(nwise_iter(list(range(10000)), 500))
102 ms ± 3.95 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)

我不想将所有测试数据加载到内存中以利用切片方法.是否有更有效的方法来解决这个问题?

解决方法:

使用deque到“memoize”你的物品怎么样?

from collections import deque

def nwise_slice(it, n):
    deq = deque((), n)
    for x in it:
        deq.append(x)
        if len(deq)==n: yield deq

my_range = range(8)
for sub in nwise_slice(my_range, 5):
    print(sub)
# =>
# deque([0, 1, 2, 3, 4], maxlen=5)
# deque([1, 2, 3, 4, 5], maxlen=5)
# deque([2, 3, 4, 5, 6], maxlen=5)
# deque([3, 4, 5, 6, 7], maxlen=5)
上一篇:Python3 for in if 和 逻辑判断 的使用


下一篇:python – 哪个itertools生成器不跳过任何组合?