麦子学院 2017-07-02 22:32
如何解决python训练数据内存泄露问题?
回复:0 查看:2371
在TensorFlow
训练模型的过程中,一般数据加载分情景各有不同。
1.
当数据量能直接全部载入内存时,当然最是方便,直接全部载入内存,然后训练即可。
2.
数据无法全部载入内存时,有多种方法。介绍其中
2
种用的多的,其一是边训练边读取(可以用多线程进行优化),其二是随机打乱所有训练数据的索引然后随机选择部分数据进行训练测试。
第2
类情景中,有可能由于对
Python
的
GC
机制理解不深(
Me…
),出现内存泄露。比如下面的第
12
行的列表就无法释放,导致内存泄露,而
11
行则不会出现内存泄露。
import numpy
as np
import gc
import psutil
import os
def
get_memory_usage():
process = psutil.Process(os.getpid())
return process.memory_info().rss/(1024*1024)
print 'before load, memory: %d MB' % get_memory_usage()#dataset = [np.zeros((6000,6000),dtype=np.float32) for _ in range(30000)]
dataset = [(np.zeros((6000,6000),dtype=np.float32),np.zeros((200,200),dtype=np.int32))
for _
in range(10000)]
print 'after load, memory: %d MB' % get_memory_usage()
print 'before release, memory: %d MB' % get_memory_usage()
del dataset
dataset =
None
gc.collect()
print 'after release, memory: %d MB' % get_memory_usage()
第11
行内存释放结果:
before
load,
memory: 25 MB
after
load,
memory: 220 MB
before
release,
memory: 220 MB
after
release,
memory: 27 MB
第12
行内存释放结果:
before
load,
memory: 23 MB
after
load,
memory: 1406 MB
before
release,
memory: 1406 MB
after
release,
memory: 1170 MB
可以看到第12
行内存泄露严重。出现这种内存泄露时,模型训练基本只能训练几个
Epoch
就会出现
OOM
。
大力出奇迹
这种问题当然最优的是从根源解决,即研究清楚Python
的
GC
机制,解决内存泄露。
在时间比较紧或者问题比较麻烦时,有时粗暴快速的方法也不失为一种选择。
训练模型的目标是根据训练数据以及模型结构优化模型参数,因此只要达成目的,过程不重要。
在这个例子中,可以直接每次只训练1
个
Epoch
,然后重启
Python
进程读取模型进行
fine-tune
。与直接训练若干个
Epoch
效果接近。
#
训练
50
个
epoch
seq 50|xargs -i python train.py --model-path=./model
来源:网络
|