環境 Ubuntu 18.04 Geforce GTX 2070 cuda 10.0 cuDNN 7.4 Anaconda Python 3.6 TensorFlow 1.13.1 対処法 tf.Session() の箇所を session_config = tf.ConfigProto(gpu_options=tf.GPUOptions(allow_growth=True)) tf.Session(config = session_config) として、allow_growth=Trueを追記。 参考 https://github.com/tensorflow/tensorflow/issues/24496
Ubuntu 18.04 Geforce GTX 2070 cuda 10.0 cuDNN 7.4 Anaconda Python 3.6 TensorFlow 1.13.1
Ubuntu 18.04
Geforce GTX 2070
cuda 10.0
cuDNN 7.4
Anaconda
Python 3.6
TensorFlow 1.13.1
tf.Session()
の箇所を
session_config = tf.ConfigProto(gpu_options=tf.GPUOptions(allow_growth=True)) tf.Session(config = session_config)
として、allow_growth=Trueを追記。
allow_growth=True
https://github.com/tensorflow/tensorflow/issues/24496