python-从文件预分配的numpy数组?

我有一组进入numpy数组的大型ascii数据文件.总的来说,我的意思是390行,其中每行是60,000个值(从C程序高精度输出的双精度值),以空格分隔.

目前,我正在使用以下(朴素的)代码:

import numpy as np
data_array = np.genfromtxt('l_sim_s_data.txt')

但是,这需要25秒钟以上的时间才能运行.我怀疑这是由于在读取值之前未预分配data_array.是否有任何方法可以告诉genfromtxt它正在制作的数组的大小(因此将对内存进行预分配)?还是有人对如何加快这一过程有想法?

解决方法:

您是否尝试过np.loadtxt

(genfromtxt是更高级的文件加载器,可处理诸如缺少值和格式转换器之类的事情.)

上一篇:多个线程以将xml文件加载到内存中


下一篇:javascript-Google Chrome中的ammo.js性能