- 原文地址:Logistic Regression on MNIST with PyTorch
- 原文做者:Asad Mahmood
- 译文出自:掘金翻译计划
- 本文永久连接:github.com/xitu/gold-m…
- 译者:lsvih
- 校对者:fireairforce
逻辑回归(Logistic Regression)既能够用来描述数据,也能够用来解释数据中各个二值变量、类别变量、顺序变量、距离变量、比率变量之间的关系[1]。下图展现了逻辑回归与线性回归的区别。css
本文将展现如何使用 PyTorch 编写逻辑回归模型。html
咱们将尝试在 MNIST 数据集上解决分类问题。首先,导入咱们所须要的全部库:前端
import torch
from torch.autograd import Variable
import torchvision.transforms as transforms
import torchvision.datasets as dsets
复制代码
在建立模型前,我喜欢列一个以下的步骤表。PyTorch 官网[2]上也有这个步骤列表:python
# 第一步:加载数据集
# 第二步:使数据集可迭代
# 第三步:建立模型类
# 第四步:将模型类实例化
# 第五步:实例化 Loss 类
# 第六步:实例化优化器类
# 第七步:训练模型
复制代码
下面咱们将一步步完成上述的步骤。android
咱们使用 torchvision.datasets 来加载数据集。这个库中包含了几乎所有的用于机器学习的流行数据集。在[3]中能够看到完整的数据集列表。ios
train_dataset = dsets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=False)
test_dataset = dsets.MNIST(root='./data', train=False, transform=transforms.ToTensor())
复制代码
咱们利用 DataLoader 类,使用如下代码来让咱们的数据集可被迭代:git
train_loader = torch.utils.data.DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset, batch_size=batch_size, shuffle=False)
复制代码
如今,咱们将建立一个用来定义逻辑回归模型结构的类:github
class LogisticRegression(torch.nn.Module):
def __init__(self, input_dim, output_dim):
super(LogisticRegression, self).__init__()
self.linear = torch.nn.Linear(input_dim, output_dim)
def forward(self, x):
outputs = self.linear(x)
return outputs
复制代码
在将模型类实例化以前,咱们先初始化以下所示的参数:算法
batch_size = 100
n_iters = 3000
epochs = n_iters / (len(train_dataset) / batch_size)
input_dim = 784
output_dim = 10
lr_rate = 0.001
复制代码
而后,就能初始化咱们的逻辑回归模型了:后端
model = LogisticRegression(input_dim, output_dim)
复制代码
咱们使用交叉熵损失来计算 loss:
criterion = torch.nn.CrossEntropyLoss() # 计算 softmax 分布之上的交叉熵损失
复制代码
优化器(optimizer)就是咱们即将使用的学习算法。在本例中,咱们将使用随机梯度降低(SGD)做为优化器:
optimizer = torch.optim.SGD(model.parameters(), lr=lr_rate)
复制代码
这就是最后一步了。咱们将用如下的代码来训练模型:
iter = 0
for epoch in range(int(epochs)):
for i, (images, labels) in enumerate(train_loader):
images = Variable(images.view(-1, 28 * 28))
labels = Variable(labels)
optimizer.zero_grad()
outputs = model(images)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
iter+=1
if iter%500==0:
# 计算准确率
correct = 0
total = 0
for images, labels in test_loader:
images = Variable(images.view(-1, 28*28))
outputs = model(images)
_, predicted = torch.max(outputs.data, 1)
total+= labels.size(0)
# 若是用的是 GPU,则要把预测值和标签都取回 CPU,才能用 Python 来计算
correct+= (predicted == labels).sum()
accuracy = 100 * correct/total
print("Iteration: {}. Loss: {}. Accuracy: {}.".format(iter, loss.item(), accuracy))
复制代码
在训练时,这个模型只须要进行 3000 次迭代就能达到 82% 的准确率。你能够试着继续调整一下参数,看看还能不能把准确率再调高一点。
若是你想加深对在 PyTorch 中实现逻辑回归的理解,能够把上面的模型应用于任何分类问题。好比,你能够训练一个逻辑回归模型来对你最喜好的漫威英雄的图像作个分类(有一半已经化灰了,因此作分类应该不是很难):)
[1] www.statisticssolutions.com/what-is-log…
若是发现译文存在错误或其余须要改进的地方,欢迎到 掘金翻译计划 对译文进行修改并 PR,也可得到相应奖励积分。文章开头的 本文永久连接 即为本文在 GitHub 上的 MarkDown 连接。
掘金翻译计划 是一个翻译优质互联网技术文章的社区,文章来源为 掘金 上的英文分享文章。内容覆盖 Android、iOS、前端、后端、区块链、产品、设计、人工智能等领域,想要查看更多优质译文请持续关注 掘金翻译计划、官方微博、知乎专栏。