打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
pycharm单步调试

debug模式

点击运行标志旁的小甲虫标志级进入debug模式,也可以右键代码进入


debug模式中的按键解释

断点设置

在代码前左键点击会生成红色的点

开始debug

点击小甲虫标志之后,代码会停在红点的前一行,并且会把每一行的数据大小,类型给显示在对应的代码后面,控制框也可看到


之后可以使用单步调试也就是F8让他逐行运行代码

运行经过数据转入代码之后可以看到 batch_xs,batch_ys中的数据信息,包括他的最值、类型、元素数量以及shape。
当需要跳过循环的时候可以使用F9跳到光标位置。如果自己没有设定光标位置,则会运行整个代码。

可以看到acc(精度为)再次按下F9可以得到下一个循环的精度0.8333是越来越接近1的


也可以查看每个周期的权重W会发现是动态变化的

代码

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
from tensorflow.examples.tutorials.mnist import input_data

# 载入数据集
mnist = input_data.read_data_sets("MNIST_data", one_hot=True)

# 批次大小
batch_size = 64
# 计算一个周期一共有多少个批次
n_batch = mnist.train.num_examples // batch_size

# 定义两个placeholder
#x表示输入图片的数据,y表示类别个数。x被拉伸成为1×784,y被拉伸成为1×10
x = tf.placeholder(tf.float32,[None,784])
y = tf.placeholder(tf.float32,[None,10])

# 创建一个简单的神经网络:784-10
#创建规格为784×10方差为0.1的权重矩阵和规格为1×10的偏执向量
W = tf.Variable(tf.truncated_normal([784,10], stddev=0.1))
b = tf.Variable(tf.zeros([10]) + 0.1)
#对x*w+b使用softmax激活函数
prediction = tf.nn.softmax(tf.matmul(x,W)+b)

# 二次代价函数
# loss = tf.losses.mean_squared_error(y, prediction)
# 交叉熵 000
loss = tf.losses.softmax_cross_entropy(y, prediction)

# 使用梯度下降法
train = tf.train.GradientDescentOptimizer(0.3).minimize(loss)

# 结果存放在一个布尔型列表中
#tf.argmax(y,1)得到里面的最大值
#tf.equal()判断函数内部的值是否一样,一样为TRUE否则为FALSE
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
# 将上面correct_prediction的格式转化为32位浮点型,并且求平均值,得到准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

with tf.Session() as sess:
    # 变量初始化
    sess.run(tf.global_variables_initializer())
    # 周期epoch:所有数据训练一次,就是一个周期
    for epoch in range(21):
        for batch in range(n_batch):
            # 获取一个批次的数据和标签
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            sess.run(train,feed_dict={x:batch_xs,y:batch_ys})
        # 每训练一个周期做一次测试输出周期数和准确率
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
        w_print = str(sess.run(W))
    #在当前目录下创建logdir文件夹,内部存放生成文件
    writer = tf.summary.FileWriter('logdir/', sess.graph)
    #w_print = sess.run(W)
    #print(str(w_print))
    #b_print = sess.run(b)
    #print(str(b_print))
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
手把手教TensorFlow(附代码)
机器学习入门之HelloWorld(Tensorflow)
tensorflow 第八课 saver Iter0,Testing Accuracy 0.9288
5.8 莫烦 Python RNN LSTM 循环神经网络 (分类例子)
【DL笔记9】搭建CNN哪家强?TensorFlow,Keras谁在行?
深度学习代码的实践应用
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服