Tag: tensorflow

TensorFlow,为什么Python是select的语言?

我最近开始学习深度学习和其他ML技术,我开始寻找简化构buildnetworking和训练过程的框架,然后我发现TensorFlow,对于我来说在这个领域没有什么经验,似乎速度是一个为深入学习做出更大的ML系统的一个重要因素,那么为什么Pythonselectpython来制造TensorFlow呢? 把它翻译成一种可以被编译而不被解释的语言不是更好吗? 在C ++语言中使用Python进行机器学习有什么好处?

如何find哪个版本的TensorFlow安装在我的系统中?

标题说明了一切。 我正在使用Ubuntu 16.04长期支持。

如何*实际*在TensorFlow中读取CSV数据?

我对TensorFlow的世界比较陌生,对于如何将CSV数据读入TensorFlow中可用的示例/标签张量中感到相当困惑。 阅读CSV数据的TensorFlow教程中的示例是相当分散的,只能让您在CSV数据上进行培训。 下面是我编写的基于CSV教程的代码: from __future__ import print_function import tensorflow as tf def file_len(fname): with open(fname) as f: for i, l in enumerate(f): pass return i + 1 filename = "csv_test_data.csv" # setup text reader file_length = file_len(filename) filename_queue = tf.train.string_input_producer([filename]) reader = tf.TextLineReader(skip_header_lines=1) _, csv_row = reader.read(filename_queue) # setup CSV decoding record_defaults = [[0],[0],[0],[0],[0]] col1,col2,col3,col4,col5 […]

如何为GradientDescentOptimizer设置自适应学习率?

我正在使用TensorFlow来训练一个neural network。 这是我如何初始化GradientDescentOptimizer : init = tf.initialize_all_variables() sess = tf.Session() sess.run(init) mse = tf.reduce_mean(tf.square(out – out_)) train_step = tf.train.GradientDescentOptimizer(0.3).minimize(mse) 这里的事情是我不知道如何设置学习率或衰减值的更新规则。 我如何在这里使用自适应学习率?

TensorFlow从文件中保存/加载graphics

从目前为止,我们已经有几种不同的方法将TensorFlow图转储到一个文件中,然后将其加载到另一个程序中,但是我一直无法find有关它们工作原理的明确示例/信息。 我已经知道的是这样的: 使用tf.train.Saver()将模型的variables保存到检查点文件(.ckpt tf.train.Saver() ,稍后恢复( 源文件 ) 将模型保存到.pb文件中,并使用tf.train.write_graph()和tf.import_graph_def() ( source )将其加载回来。 从.pb文件加载模型,重新训练,并使用Bazel( 源代码 )将其转储到新的.pb文件中 冻结graphics以保存graphics和权重( 来源 ) 使用as_graph_def()保存模型,对于权重/variables,将它们映射到常量( 源 ) 但是,我还没有能够澄清这些不同方法的几个问题: 关于检查点文件,他们是否只保存模型的训练重量? 检查点文件可以加载到一个新的程序,并用于运行模型,或者他们只是作为方式来保存模型中的权重在某个时间/阶段? 关于tf.train.write_graph() ,还保存了权重/variables吗? 关于Bazel,它只能保存到/从.pb文件加载再培训? 有一个简单的Bazel命令只是将图转储到.pb中吗? 关于冻结,可以使用tf.import_graph_def()来加载冻结图吗? TensorFlow的Android演示从.pb文件加载到Google的Inception模型中。 如果我想replace自己的.pb文件,我该如何去做呢? 我需要更改任何本机代码/方法吗? 一般来说,所有这些方法之间究竟有什么区别呢? 或者更广泛地说, as_graph_def() ckpt/.pb有什么区别? 总之,我正在寻找的是一种方法来保存一个graphics(如,各种操作等)及其权重/variables到一个文件,然后可以用来加载graphics和权重到另一个程序,供使用(不一定是继续/再培训)。 有关这个主题的文档不是很简单,所以任何答案/信息将不胜感激。

在TensorFlow中使用预先训练的单词embedded(word2vec或Glove)

我最近回顾了卷积文本分类的一个有趣的实现。 然而,我所检查的所有TensorFlow代码都使用了如下的随机(未经过预先训练的)embedded向量: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable( tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0), name="W") self.embedded_chars = tf.nn.embedding_lookup(W, self.input_x) self.embedded_chars_expanded = tf.expand_dims(self.embedded_chars, -1) 有人知道如何使用Word2vec的结果或GloVe预先训练的词embedded,而不是随机的吗?

Tensorflow与Windows工作stream兼容吗?

我还没有看到有关Windows兼容性的任何信息 – 如果我付出了一些努力,这是在路上还是在某个地方? (我有一个Mac和一个Ubuntu的盒子,但Windows机器是我目前与theano使用的独立显卡的一个)。

tf.app.run()如何工作?

tf.app.run()如何在Tensorflow翻译演示中工作? 在tensorflow / models / rnn / translate / translate.py中,有一个对tf.app.run()的调用。 它是如何处理的? if __name__ == "__main__": tf.app.run()

tf.nn.embedding_lookup函数做什么?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) 我不明白这个function的责任。 这就像查询表吗? 这意味着返回对应于每个id(在ID中)的参数? 例如,在skip-gram模型中,如果我们使用tf.nn.embedding_lookup(embeddings, train_inputs) ,那么对于每个train_input它find相应的embedded?

如何构build和使用Google TensorFlow C ++ api

我真的很想开始在C ++中使用Google的新Tensorflow库。 网站和文档只是不清楚如何build立项目的C + + API,我不知道从哪里开始。 有更多经验的人可以通过发现和共享使用tensorflow的C ++ API的指导来帮助吗?