我用python pd.read_csv读取一个目录里的几百个不是很大的文件,进行循环计算,不写文件,要重复读好多次进行多次计算,很浪费时间,有什么方法只读一次嘛?比如把所有文件都保留在内存?
如何提高 python pd.read_csv的效率?
for i in range(1,200,1):
for files in os.listdir(path):
file = path+files
df = pd.read_csv(file,encoding="utf_8_sig")
然后使用i 计算所有文件