TensorFlow入门——MNIST手写数字识别实战代码

我在该代码中使用了两个卷积层+池化层,最后连上两个全链接层。 第一层卷积使用32个5x5x1的卷积核,步长为1,边界处理方式为“SAME”(卷积的输入和输出保持相同尺寸),激发函数为Relu,而后接一个2x2的池化层,方式为最大化池化; 第二层卷积使用64个5x5x32的卷积核,步长为1,边界处理方式为“SAME”,激发函数为Relu, 后接一个2x2的池化层,方式为最大化池化; 第一层全链接层:
相关文章
相关标签/搜索