打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
tf.train.batch和tf.train.shuffle

tf.train.batch([example, label], batch_size=batch_size, capacity=capacity):

------[example, label]表示样本和样本标签,这个可以是一个样本和一个样本标签,

------batch_size是返回的一个batch样本集的样本个数。

------capacity是队列中的容量。这主要是按顺序组合成一个batch




tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue)。

         这里面的参数和上面的一样的意思。不一样的是这个参数min_after_dequeue,一定要保证这参数大于capacity参数的值,否则会出错。这个代表队列中的元素大于它的时候就输出乱的顺序的batch。也就是说这个函数的输出结果是一个乱序的样本排列的batch,不是按照顺序排列的。

上面的函数返回值都是一个batch的样本和样本标签,只是一个是按照顺序,另外一个是随机的

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
猫狗大战系列002生成batch及调整图像大小,转换为TFRecord
TensorFlow和Keras解决大数据量内存溢出问题
Tensorflow datasets.shuffle repeat batch方法
TensorFlow基础3:数据读取的三种方式
Tensorflow实现卷积神经网络,用于人脸关键点识别
百亿特征维度、近万亿样本量,微博基于Spark的大规模机器学习应用
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服