Tag: tensorflow

我怎样才能在TensorFlow中使用批量标准化?

我想在TensorFlow中使用Batch Normalization,因为我在源代码core/ops/nn_ops.ccfind它。 但是,我没有在tensorflow.org上find它的logging。 BN在MLP和CNN中有不同的语义,所以我不确定这个BN究竟做了什么。 我没有find一个名为MovingMoments的方法。 C ++代码复制在这里供参考: REGISTER_OP("BatchNormWithGlobalNormalization") .Input("t: T") .Input("m: T") .Input("v: T") .Input("beta: T") .Input("gamma: T") .Output("result: T") .Attr("T: numbertype") .Attr("variance_epsilon: float") .Attr("scale_after_normalization: bool") .Doc(R"doc( Batch normalization. t: A 4D input Tensor. m: A 1D mean Tensor with size matching the last dimension of t. This is the first output from MovingMoments. v: […]

如何在Tensorflow中只使用Python来自定义激活函数?

假设你需要做一个不可能使用的预定义的tensorflow构build块的激活函数,你能做什么? 所以在Tensorflow中,可以创build自己的激活function。 但是这是相当复杂的,你必须用C ++编写它并重新编译整个tensorflow [1] [2] 。 有一个更简单的方法吗?

我可以使用TensorFlow来测量单个操作的执行时间吗?

我知道我可以测量调用sess.run()的执行时间,但是可以获得更精细的粒度并测量单个操作的执行时间吗?

在Ubuntu 12.04中导入python2.7中的Tensorflow时出错。 'GLIBC_2.17找不到'

我已成功安装了与python的Tensorflow绑定。 但是当我尝试导入Tensorflow时,出现以下错误。 ImportError:找不到/lib/x86_64-linux-gnu/libc.so.6:'GLIBC_2.17'版本(/usr/local/lib/python2.7/dist-packages/tensorflow/python/_pywrap_tensorflow.so ) 我试图更新GLIBC_2.15到2.17,但没有运气。

Tensorflow使用标签读取图像

我正在用Tensorflowbuild立一个标准的图像分类模型。 为此,我input图像,每个图像分配一个标签(数字在{0,1})。 数据因此可以使用以下格式存储在列表中: /path/to/image_0 label_0 /path/to/image_1 label_1 /path/to/image_2 label_2 … 我想使用TensorFlow的排队系统来读取我的数据并将其提供给我的模型。 忽略标签,可以通过使用string_input_producer和wholeFileReader轻松实现。 这里代码: def read_my_file_format(filename_queue): reader = tf.WholeFileReader() key, value = reader.read(filename_queue) example = tf.image.decode_png(value) return example #removing label, obtaining list containing /path/to/image_x image_list = [line[:-2] for line in image_label_list] input_queue = tf.train.string_input_producer(image_list) input_images = read_my_file_format(input_queue) 但是,由于图像数据被有意地作为inputstream水线的一部分进行混洗,标签在该过程中丢失。 通过input队列将图像数据与标签一起推送的最简单方法是什么?

softmax和softmax_cross_entropy_with_logits有什么区别?

我正在浏览tensorflow API文档。 在tensorflow文档中,他们使用了一个名为logits的关键字。 它是什么? 在API文档中的很多方法都是这样写的 tf.nn.softmax(logits, name=None) 如果写的是那些logits只是logits ,为什么保留一个不同的名字像logits ? 另一件事是有两种方法我不能区分。 他们是 tf.nn.softmax(logits, name=None) tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 他们之间有什么区别? 文件不清楚。 我知道什么是tf.nn.softmax 。 但不是其他。 一个例子将是非常有帮助的。

Windows上的TensorFlow版本1.0.0-rc2:“OpKernel('op:”BestSplits“device_type:”CPU“')for unknown op:BestSplits”with test code

我在Windows 7 SP1 x64 Ultimate(Python 3.5.2 | Anaconda自定义(64位))上安装了TensorFlow 1.0.0-rc2版本,使用: pip install –upgrade https://storage.googleapis.com/tensorflow/windows/cpu/tensorflow-1.0.0rc2-cp35-cp35m-win_amd64.whl 当我尝试在Eclipse 4.5或控制台中从https://web.archive.org/web/20170214034751/https://www.tensorflow.org/get_started/os_setup#test_the_tensorflow_installation运行testing脚本时: import tensorflow as tf print('TensorFlow version: {0}'.format(tf.__version__)) hello = tf.constant('Hello, TensorFlow!') sess = tf.Session() print(sess.run(hello)) 我得到一些错误信息: TensorFlow version: 1.0.0-rc2 'Hello, TensorFlow!' E c:\tf_jenkins\home\workspace\release-win\device\cpu\os\windows\tensorflob w\core\framework\op_kernel.cc:943] OpKernel ('op: "BestSplits" device_type: "CPU"') for unknown op: BestSplits E c:\tf_jenkins\home\workspace\release-win\device\cpu\os\windows\tensorflow\core\framework\op_kernel.cc:943] OpKernel ('op: "CountExtremelyRandomStats" device_type: "CPU"') […]

如何防止张量stream分配整个GPU内存?

我在共享计算资源的环境下工作,也就是说,我们有几台服务器机器,每台服务器都配备了几个Nvidia Titan X GPU。 对于中小尺寸的机型,Titan X的12GB通常足以让2-3人在同一个GPU上同时进行训练。 如果模型足够小以至于单个模型不能充分利用Titan X的所有计算单元,那么与一个训练过程相比,这实际上会导致加速。 即使并行访问GPU确实减慢了单独的培训时间,但拥有多个用户同时在GPU上运行的灵活性仍然不错。 TensorFlow的问题在于,默认情况下,它会在GPU启动时为其分配全部可用内存。 即使是一个小型的2层neural network,我也看到Titan X的12 GB已经用完了。 有没有办法让TensorFlow只分配4GB的GPU内存,如果知道这个数量对于给定的模型是足够的?

如何在TensorFlow中打印Tensor对象的值?

我一直使用TensorFlow中的matrix乘法的例子。 matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) 而当我打印产品时,它显示为一个TensorObject(显然)。 产品 <tensorflow.python.framework.ops.Tensor object at 0x10470fcd0> 但是,我怎么知道product的价值呢? 以下不起作用: print product Tensor("MatMul:0", shape=TensorShape([Dimension(1), Dimension(1)]), dtype=float32) 我知道图表在Sessions运行,但没有任何方法可以检查TensorObject的输出,而无需在session运行graphics?

在Windows上,运行“导入tensorflow”生成没有名为“_pywrap_tensorflow”错误的模块

在Windows上,TensorFlow在执行import tensorflow语句后报告以下错误中的一个或两个: No module named "_pywrap_tensorflow" DLL load failed.