python教程分享基于Pytorch实现逻辑回归 您所在的位置:网站首页 pytorch打印loss python教程分享基于Pytorch实现逻辑回归

python教程分享基于Pytorch实现逻辑回归

2023-01-03 03:38| 来源: 网络整理| 查看: 265

python教程分享基于Pytorch实现逻辑回归实例为大家分享了pytorch实现逻辑回归的具体代码,供大家参考,具体内容如下

1.逻辑回归

 线性回归表面上看是“回归问题”,实际上处理的问题是“分类”问题,逻辑回归模型是一种广义的回归模型,其与线性回归模型有很多的相似之处,模型的形式也基本相同,唯一不同的地方在于逻辑回归会对y作用一个逻辑函数,将其转化为一种概率的结果。逻辑函数也称为sigmoid函数,是逻辑回归的核心。

2.基于pytorch实现逻辑回归

import torch as t import matplotlib.pyplot as plt from torch import nn from torch.autograd import variable import numpy as np     # 构造数据集 n_data = t.ones(100, 2) # normal()返回一个张量,张量里面的随机数是从相互独立的正态分布中随机生成的。 x0 = t.normal(2*n_data, 1) y0 = t.zeros(100) x1 = t.normal(-2*n_data, 1) y1 = t.ones(100)   # 把数据给合并以下,并且数据的形式必须是下面形式 x = t.cat((x0, x1), 0).type(t.floattensor) y = t.cat((y0, y1), 0).type(t.floattensor)   # 观察制造的数据 plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0) plt.show()   # 建立逻辑回归 class logisticregression(nn.module):     def __init__(self):         super(logisticregression, self).__init__()         self.lr = nn.linear(2, 1)         self.sm = nn.sigmoid()     def forward(self, x):         x = self.lr(x)         x = self.sm(x)         return x # 实例化 logistic_model = logisticregression() # 看gpu是否可使用,如果可以使用gpu否则不使用 if t.cuda.is_available():     logistic_model.cuda() # 定义损失函数和优化函数 criterion = nn.bceloss() optimizer = t.optim.sgd(logistic_model.parameters(), lr=1e-3, momentum=0.9) # 训练模型 for epoch in range(1000):     if t.cuda.is_available():         x_data = variable(x).cuda()         y_data = variable(y).cuda()     else:         x_data = variable(x)         y_data = variable(y)         out = logistic_model(x_data)         loss = criterion(out, y_data)         print_loss = loss.data.item()         # 以0.5为阈值进行分类         mask = out.ge(0.5).float()         # 计算正确预测样本的个数         correct = (mask==y_data).sum()         # 计算精度         acc = correct.item()/x_data.size(0)         optimizer.zero_grad()         loss.backward()         optimizer.step()         # 每个200个epoch打印一次当前的误差和精度         if(epoch+1)%200==0:             print('*'*10)             # 迭代次数             print('epoch{}'.format(epoch+1))             # 误差             print('loss is {:.4f}'.format((print_loss)))             # 精度             print('acc is {:.4f}'.format(acc)) if __name__=="__main__":     logistic_model.eval()     w0, w1 = logistic_model.lr.weight[0]     w0 = float(w0.item())     w1 = float(w1.item())     b = float(logistic_model.lr.bias.item())     plot_x = np.arange(-7, 7, 0.1)     plot_y = (-w0*plot_x-b)/w1     plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0)     plt.plot(plot_x, plot_y)     plt.show()

基于Pytorch实现逻辑回归

基于Pytorch实现逻辑回归

以上就是python教程分享基于Pytorch实现逻辑回归的全部内容,希望对大家的学习有所帮助,也希望大家多多支持234IT>。

需要了解更多python教程分享基于Pytorch实现逻辑回归,都可以关注python教程分享栏目—234IT(www.234it.com)



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有