Tensorflow中tf.ConfigProto()详解
參考Tensorflow Machine Leanrning Cookbook
tf.ConfigProto()主要的作用是配置tf.Session的運(yùn)算方式,比如gpu運(yùn)算或者cpu運(yùn)算
具體代碼如下:
import tensorflow as tf
session_config = tf.ConfigProto(
log_device_placement=True,
inter_op_parallelism_threads=0,
intra_op_parallelism_threads=0,
allow_soft_placement=True)
sess = tf.Session(config=session_config)
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2,3], name='b')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3,2], name='b')
c = tf.matmul(a,b)
print(sess.run(c))
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
?
具體解釋
log_device_placement=True
設(shè)置為True時(shí),會(huì)打印出TensorFlow使用了那種操作
inter_op_parallelism_threads=0
設(shè)置線程一個(gè)操作內(nèi)部并行運(yùn)算的線程數(shù),比如矩陣乘法,如果設(shè)置為0,則表示以最優(yōu)的線程數(shù)處理
intra_op_parallelism_threads=0
設(shè)置多個(gè)操作并行運(yùn)算的線程數(shù),比如 c = a + b,d = e + f . 可以并行運(yùn)算
allow_soft_placement=True
有時(shí)候,不同的設(shè)備,它的cpu和gpu是不同的,如果將這個(gè)選項(xiàng)設(shè)置成True,那么當(dāng)運(yùn)行設(shè)備不滿足要求時(shí),會(huì)自動(dòng)分配GPU或者CPU。
?
其他選項(xiàng)
當(dāng)使用GPU時(shí)候,Tensorflow運(yùn)行自動(dòng)慢慢達(dá)到最大GPU的內(nèi)存
session_config.gpu_options.allow_growth = True
1
當(dāng)使用GPU時(shí),設(shè)置GPU內(nèi)存使用最大比例
session_config.gpu_options.per_process_gpu_memory_fraction = 0.4
1
是否能夠使用GPU進(jìn)行運(yùn)算
tf.test.is_built_with_cuda()
1
?
另外的處理方法
import tensorflow as tf
sess = tf.Session()
with tf.device('/cpu:0'):
a = tf.constant([1.0, 3.0, 5.0], shape=[1, 3])
b = tf.constant([2.0, 4.0, 6.0], shape=[3, 1])
with tf.device('/gpu:0'):
c = tf.matmul(a, b)
c = tf.reshape(c, [-1])
with tf.device('/gpu:0'):
d = tf.matmul(b, a)
flat_d = tf.reshape(d, [-1])
combined = tf.multiply(c, flat_d)
print(sess.run(combined))
---------------------
作者:泥石流中的一股清流
來源:CSDN
原文:https://blog.csdn.net/qq_31261509/article/details/79746114
版權(quán)聲明:本文為博主原創(chuàng)文章,轉(zhuǎn)載請(qǐng)附上博文鏈接!
總結(jié)
以上是生活随笔為你收集整理的Tensorflow中tf.ConfigProto()详解的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: TensorFlow指定使用GPU 多块
- 下一篇: tensorflow学习笔记(二十五):