实例介绍
【实例简介】利用mnist数据集做深度学习小实例
【实例截图】
【核心代码】
# -*- coding: utf-8 -*-
"""
Created on Fri Apr 20 09:03:09 2018
@author: Administrator
"""
import tensorflow as tf
import numpy as np
from tensorflow.examples.tutorials.mnist import input_data
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
#对一个张量进行全面的汇总(均值,标准差,最大最小值,直方图)
# (用于 TensorBoard 可视化).
def variable_summaries(var):
with tf.name_scope('summaries'):
mean = tf.reduce_mean(var)
tf.summary.scalar('mean', mean)
with tf.name_scope('stddev'):
stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
tf.summary.scalar('stddev', stddev)
tf.summary.scalar('max', tf.reduce_max(var))
tf.summary.scalar('min', tf.reduce_min(var))
tf.summary.histogram('histogram', var)
print('~~~~~~~~~~开始设计计算图~~~~~~~~')
# 告诉TensorFlow模型将会被构建在默认的Graph上.
with tf.Graph().as_default():
#定义输入节点
with tf.name_scope('DataInput'):
X = tf.placeholder(tf.float32, shape=[None, 784], name='X')
Y_true = tf.placeholder(tf.float32, shape=[None, 10], name='Y_true')
#将数据转换为图片
with tf.name_scope('input_reshape'):
image_shaped_input = tf.reshape(X, [-1, 28, 28, 1])
tf.summary.image('input', image_shaped_input, 10)
#定义前项输入过程
with tf.name_scope('Interface'):
W = tf.Variable(tf.zeros([784,10]), name='Wights')
variable_summaries(W)
b = tf.Variable(tf.zeros([10]), name='Bias')
variable_summaries(b)
Y_pred = tf.add(tf.matmul(X, W), b)
tf.summary.histogram('pred', Y_pred)
#定义损失节点
with tf.name_scope('Loss'):
#使用Softmax将前项预测结果转换为概率
with tf.name_scope('Softmax'):
Y_pred_prob = tf.nn.softmax(logits=Y_pred)
tf.summary.histogram('pred_prob', Y_pred_prob)
#使用交叉熵损失
with tf.name_scope('cross_entropy'):
TrainLoss = tf.reduce_mean(-tf.reduce_sum(Y_true*tf.log(Y_pred_prob),axis=1))
tf.summary.scalar('cross_entropy', TrainLoss)
#定义训练节点
with tf.name_scope('Train'):
# Optimizer: 创建一个梯度下降优化器
Optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)
# Train: 定义训练节点将梯度下降法应用于Loss
TrainStep = Optimizer.minimize(TrainLoss)
#Evaluate: 定义评估节点
with tf.name_scope('Evaluate'):
correct_prediction = tf.equal(tf.argmax(Y_pred_prob, 1), tf.argmax(Y_true, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
tf.summary.scalar('accuracy', accuracy)
#整合所有节点,写入事件文件
merged = tf.summary.merge_all()
# Initial:添加所有Variable类型的变量的初始化节点
InitOp = tf.global_variables_initializer()
print('把计算图写入事件文件,在TensorBoard里面查看')
train_writer = tf.summary.FileWriter(logdir='logs/mnist_softmax', graph=tf.get_default_graph())
#writer.close()
#训练过程
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)#获取数据
#启动会化
sess = tf.Session()
sess.run(InitOp)#初始化所有变量W,b
# 开始按批次训练,总共训练1000个批次,每个批次100个样本
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
summary, _, train_loss= sess.run([merged, TrainStep, TrainLoss],
feed_dict={X:batch_xs, Y_true: batch_ys})
#print("train step: ", i, ", train_loss: ", train_loss)
train_writer.add_summary(summary, i)
#对模型进行评估
accuracy_score = sess.run(accuracy,feed_dict={X: mnist.test.images,
Y_true: mnist.test.labels})
#print("模型准确率:", accuracy_score)
train_writer.close()
好例子网口号:伸出你的我的手 — 分享!
相关软件
小贴士
感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。
- 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
- 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
- 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
- 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。
关于好例子网
本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明


网友评论
我要评论