利用Pytorch实现简单的线性回归算法
作者:carmanzzz
今天小编就为大家分享一篇利用Pytorch实现简单的线性回归算法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
最近听了张江老师的深度学习课程,用Pytorch实现神经网络预测,之前做Titanic生存率预测的时候稍微了解过Tensorflow,听说Tensorflow能做的Pyorch都可以做,而且更方便快捷,自己尝试了一下代码的逻辑确实比较简单。
Pytorch涉及的基本数据类型是tensor(张量)和Autograd(自动微分变量),对于这些概念我也是一知半解,tensor和向量,矩阵等概念都有交叉的部分,下次有时间好好补一下数学的基础知识,不过现阶段的任务主要是应用,学习掌握思维和方法即可,就不再深究了。tensor和ndarray可以相互转换,python的numpy库中的命令也都基本适用。
一些基本的代码:
import torch #导入torch包 x = torch.rand(5, 3) #产生一个5*3的tensor,在 [0,1) 之间随机取值 y = torch.ones(5, 3) #产生一个5*3的Tensor,元素都是1 #和numpy的命令一致 #tensor的运算 z = x + y #两个tensor可以直接相加 q = x.mm(y.transpose(0, 1)) #x乘以y的转置 mm为矩阵的乘法,矩阵相乘必须某一个矩阵的行与另一个矩阵的列相等 ##Tensor与numpy.ndarray之间的转换 import numpy as np #导入numpy包 a = np.ones([5, 3]) #建立一个5*3全是1的二维数组(矩阵) b = torch.from_numpy(a) #利用from_numpy将其转换为tensor c = torch.FloatTensor(a) #另外一种转换为tensor的方法,类型为FloatTensor,还可以使LongTensor,整型数据类型 b.numpy() #从一个tensor转化为numpy的多维数组 from torch.autograd import Variable #导入自动梯度的运算包,主要用Variable这个类 x = Variable(torch.ones(2, 2), requires_grad=True) #创建一个Variable,包裹了一个2*2张量,将需要计算梯度属性置为True
下面用pytorch做一个简单的线性关系预测
线性关系是一种非常简单的变量之间的关系,因变量和自变量在线性关系的情况下,可以使用线性回归算法对一个或多个因变量和自变量间的线性关系进行建模,该模型的系数可以用最小二乘法进行求解。生活中的场景往往会比较复杂,需要考虑多元线性关系和非线性关系,用其他的回归分析方法求解。
这里po上代码:
#人为生成一些样本点作为原始数据 x = Variable(torch.linspace(0, 100).type(torch.FloatTensor)) rand = Variable(torch.randn(100)) * 10 #随机生成100个满足标准正态分布的随机数,均值为0,方差为1.将这个数字乘以10,标准方差变为10 y = x + rand #将x和rand相加,得到伪造的标签数据y。所以(x,y)应能近似地落在y=x这条直线上 import matplotlib.pyplot as plt #导入画图的程序包 plt.figure(figsize=(10,8)) #设定绘制窗口大小为10*8 inch plt.plot(x.data.numpy(), y.data.numpy(), 'o') #绘制数据,考虑到x和y都是Variable,需要用data获取它们包裹的Tensor,并专成numpy plt.xlabel('X') plt.ylabel('Y') plt.show()
图示:
训练模型:
#a,b就是要构建的线性函数的系数 a = Variable(torch.rand(1), requires_grad = True) #创建a变量,并随机赋值初始化 b = Variable(torch.rand(1), requires_grad = True) #创建b变量,并随机赋值初始化 print('Initial parameters:', [a, b]) learning_rate = 0.0001 #设置学习率 for i in range(1000): ### 增加了这部分代码,清空存储在变量a,b中的梯度信息,以免在backward的过程中会反复不停地累加 if (a.grad is not None) and (b.grad is not None): a.grad.data.zero_() b.grad.data.zero_() predictions = a.expand_as(x) * x+ b.expand_as(x) #计算在当前a、b条件下的模型预测数值 loss = torch.mean((predictions - y) ** 2) #通过与标签数据y比较,计算误差 print('loss:', loss) loss.backward() #对损失函数进行梯度反传,backward的方向传播算法 a.data.add_(- learning_rate * a.grad.data) #利用上一步计算中得到的a的梯度信息更新a中的data数值 b.data.add_(- learning_rate * b.grad.data) #利用上一步计算中得到的b的梯度信息更新b中的data数值 ##拟合 x_data = x.data.numpy() plt.figure(figsize = (10, 7)) xplot = plt.plot(x_data, y.data.numpy(), 'o') # 绘制原始数据 yplot = plt.plot(x_data, a.data.numpy() * x_data + b.data.numpy()) #绘制拟合数据 plt.xlabel('X') plt.ylabel('Y') str1 = str(a.data.numpy()[0]) + 'x +' + str(b.data.numpy()[0]) #图例信息 plt.legend([xplot, yplot],['Data', str1]) #绘制图例 plt.show()
图示:
测试:
x_test = Variable(torch.FloatTensor([1, 2, 10, 100, 1000])) #随便选择一些点1,2,……,1000 predictions = a.expand_as(x_test) * x_test + b.expand_as(x_test) #计算模型的预测结果 predictions #输出
ok,大功告成,可以看到用pytorch做机器学习确实无论是准确度还是方便性都有优势,继续探索学习。
以上这篇利用Pytorch实现简单的线性回归算法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。