Tag: tensorflow

tf.placeholder和tf.Variable有什么区别?

我是张力stream的新手。 我很困惑tf.placeholder和tf.Variable之间的区别。 在我看来, tf.placeholder用于input数据,而tf.Variable用于存储数据的状态。 这就是我所知道的。 有人能更详细地向我解释他们的区别吗? 特别是何时使用tf.Variable和何时使用tf.placeholder ?

tensorflow tf.nn.softmax与tf.nn.softmax_cross_entropy_with_logits的区别

我正在通过tensorflow api文档在这里 。 在张量stream文档中,他们使用了一个名为logits的关键字。 它是什么? api文档中的很多方法都是这样写的, tf.nn.softmax(logits, name=None) 现在写的是logits只是logits 。 那么为什么要保留一个不同的名字像logits ? 我几乎认为这是logics 。 😀 。 另一件事是有两种方法我不能区分。 他们是 tf.nn.softmax(logits, name=None) tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 他们之间有什么区别? 文件不清楚。 我知道什么是tf.nn.softmax 。 但不是其他。 一个例子将是非常有帮助的。

有没有关于如何生成保存经过训练的Tensorflow图的protobuf文件的例子

我正在看Google如何在Android上部署和使用预训练的Tensorflowgraphics(模型): https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/android 此示例在以下位置使用.pb文件: [这是到自动下载的文件的链接 ] https://storage.googleapis.com/download.tensorflow.org/models/inception5h.zip 该示例显示了如何将.pb文件加载到Tensorflow会话并使用它来执行分类,但是没有(?)提及如何在graphics被训练后(例如在Python中)生成这样的.pb文件。 有没有关于如何做的例子?

在TensorFlow中,Session.run()和Tensor.eval()有什么区别?

TensorFlow有两种方法来评估graphics的一部分:在variables列表和Tensor.eval上的Session.run 。 这两者有什么区别?

名称范围和张量streamvariables范围有什么区别?

这些function有什么区别? tf.variable_op_scope(values, name, default_name, initializer=None) 返回一个用于定义创buildvariables的op的上下文pipe理器。 此上下文pipe理器validation给定的值来自同一个图,确保该图是默认图,并推送一个名称范围和一个variables范围。 tf.op_scope(values, name, default_name=None) 返回定义Python操作时使用的上下文pipe理器。 这个上下文pipe理器validation给定的值是来自同一个图,确保该图是默认图,并推送一个名称范围。 tf.name_scope(name) 使用默认graphics封装Graph.name_scope() 。 有关更多详细信息,请参阅Graph.name_scope() 。 tf.variable_scope(name_or_scope, reuse=None, initializer=None) 返回variables作用域的上下文。 可变范围允许创build新variables并共享已创build的variables,同时提供检查而不会意外创build或共享。 有关详细信息,请参阅variables范围如何,这里我们只提供几个基本示例。

如何将张量转换为TensorFlow中的一个numpy数组?

如何将Tensorflow与Python绑定一起使用张量转换为numpy数组?

如何在张量stream中有效地应用梯度裁剪?

考虑到示例代码 。 我想知道如何在RNN上的这个networking上应用梯度剪切,在这种情况下可能出现梯度分解。 tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) 这是一个可以使用的例子,但我在哪里介绍这个? 在RNN的def lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0) # Split data because rnn cell needs a list of inputs for the RNN inner loop _X = tf.split(0, n_steps, _X) # n_steps tf.clip_by_value(_X, -1, 1, name=None) 但是,这是没有意义的,因为张量_X是input,而不是什么被裁剪的gradle生? 我必须为此定义我自己的优化器还是有一个更简单的选项?

Keras,如何获得每一层的输出?

我已经用CNN训练了一个二进制分类模型,这里是我的代码 model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) # define a binary classification problem model.add(Activation('softmax')) model.compile(loss='categorical_crossentropy', optimizer='adadelta', metrics=['accuracy']) model.fit(x_train, y_train, batch_size=batch_size, nb_epoch=nb_epoch, verbose=1, validation_data=(x_test, […]

运行基本张量stream程示例时出错

我刚刚在Ubuntu上重新安装了最新的tensorflow: $ sudo pip install –upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.7.1-cp27-none-linux_x86_64.whl [sudo] password for ubuntu: The directory '/home/ubuntu/.cache/pip/http' or its parent directory is not owned by the current user and the cache has been disabled. Please check the permissions and owner of that directory. If executing pip with sudo, you may want sudo's -H flag. The directory '/home/ubuntu/.cache/pip' or […]

ValueError at / image / Tensor张量(“activation_5 / Softmax:0”,shape =(?,4),dtype = float32)不是该图的元素

您好我正在build立一个image processing的分类器,这个代码是一个API预测整个代码正在运行的图像的图像类除了这一行(pred = model.predict_classes(test_image))这个api是在Django框架和m使用python2.7 here is a point if I am running this code like normally ( without making an api)its running perfectly def classify_image(request): if request.method == 'POST' and request.FILES['test_image']: fs = FileSystemStorage() fs.save(request.FILES['test_image'].name, request.FILES['test_image']) test_image = cv2.imread('media/'+request.FILES['test_image'].name) if test_image is not None: test_image = cv2.resize(test_image, (128, 128)) test_image = np.array(test_image) test_image = test_image.astype('float32') […]