TensorFlow是Google公司2015年11月开源的第二代深度学习框架,是第一代框架DistBelief的改进版本.
TensorFlow支持python和c/c++语言, 可以在cpu或gpu上进行运算, 支持使用virtualenv或docker打包发布.
定义变量
为了使用tensorflow,首先我们需要导入它
import tensorflow as tf
对于符号变量,我们新建一个
x = tf.placeholder(tf.float32, [None, 784])
这里x并不是一个特定的值,只是一个占位符,后面我们需要用tensorflow进行计算式,我们会把它作为输入
在模型中,我们需要weights权重和biases偏置,这里就用Variable来处理定义,Variable可以在整个计算过程中modified
w = tf.Variable(tf.zeros([784, 10])) b = tf.Variable(tf.zeros([10]))
在新建Variable的同时,我们也初始化了它,然后
y = tf.nn.softmax(tf.matmul(x, w) + b)
这样我们就成功的实现了我们的模型
训练
我们用cross-entropy作为我们的cost function
H_{y'}(y) = -\sum_i y'_i \log(y_i)
y就是我们预测的概率分布,y'是真实的概率分布
为了实现交叉熵,我们需要一个新的占位符来作为正确答案的输入
y_ = tf.placeholder(tf.float32, [None, 10]) cross_entropy = -tf.reducen_sum(y_ * tf.log(y))
通过梯度下降来实现优化模型
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(cross_entropy)
我们使用这个模型之前,最后一件我们需要做的事是
init = tf.initialize_all_variables() with tf.Session() as sess: sess.run(init)
现在,我能可以训练1000次这个模型了,"htmlcode">
for i in xrange(1000): batch_xs, batch_ys = mnist.train.next_batch(100) sess.run(train_step, feed_dict = {x: batch_xs, y_: batch_ys})
使用随机数据的小batch就称为随机训练
模型评分
首先,我们对比真实的y_和模型所得y之间正确的个数有多少
correct_prediction = tf.equal(tf.argmax(y, 1), tf.agrmax(y_, 1))
这个会返回一个boolean列表,比如[True, False, True, True]
accuracy = tf.reduce_mean(tf.cast(correc_prediction, tf.float32)) print (sess.run(accuracy, feed_dict = {x: mnist.test.images, y_: minst.test.labels}))
最后就通过以上计算得到准确率
开始使用
TensorFlow并不是一个纯粹的神经网络框架, 而是使用数据流图进行数值分析的框架.
TensorFlow使用有向图(graph)表示一个计算任务.图的节点称为ops(operations)表示对数据的处理,图的边flow 描述数据的流向.
该框架计算过程就是处理tensor组成的流. 这也是TensorFlow名称的来源.
TensorFlow使用tensor表示数据. tensor意为张量即高维数组,在python中使用numpy.ndarray表示.
TensorFlow使用Session执行图, 使用Variable维护状态.tf.constant是只能输出的ops, 常用作数据源.
下面我们构建一个只有两个constant做输入, 然后进行矩阵乘的简单图:
from tensorflow import Session, device, constant, matmul '''构建一个只有两个constant做输入, 然后进行矩阵乘的简单图:''' #如果不使用with session()语句, 需要手动执行session.close(). #with device设备指定了执行计算的设备: # "/cpu:0": 机器的 CPU. # "/gpu:0": 机器的第一个 GPU, 如果有的话. # "/gpu:1": 机器的第二个 GPU, 以此类推. with Session() as session: # 创建执行图的上下文 with device('/cpu:0'): # 指定运算设备 mat1 = constant([[3, 3]]) # 创建源节点 mat2 = constant([[2], [2]]) product = matmul(mat1, mat2) # 指定节点的前置节点, 创建图 result = session.run(product) # 执行计算 print(result)
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]