我有一个函数f(x)作为输入,它在0和1之间输入了100个随机浮点数的列表x.不同的列表将导致f的运行时间不同.
我想找出f在许多不同的随机列表上平均要花多长时间.最好的方法是什么?我应该使用timeit吗,如果可以的话,有没有一种方法可以在不包含每次试验中生成每个随机列表的时间的情况下进行操作?
这就是我不用timeit(伪代码)的方式:
for i = 1 to 10000:
x = random list
start = current time
f(x)
end = current time
results.append(end - start)
return mean(results)
解决方法:
您可以制作一个计时器装饰器:
这是一些示例代码:
from time import time
class Timer(object):
def __init__(self, func):
"""
Decorator that times a function
@param func: Function being decorated
@type func: callable
"""
self.func = func
def __call__(self, *args, **kwargs):
start = time()
self.func(*args, **kwargs)
end = time()
return end - start
@Timer
def cheese():
for var in xrange(9999999):
continue
for var in xrange(100):
print cheese()
工作example,循环更少.