数据挖掘之一元线性回归 python代码

预测结果展示 :
初始数据 :

决定预测结果的是初始数据,初始数据找得好,结果就模拟的更好,我的数据找的不太好,大家可以更换好的数据测试

import matplotlib.pyplot as plt
import numpy as np

数据集x,y x,y 都是向量

给个实例x是身高(m),y是体重(kg)

我们给实际数据x,y训练出最佳的模型 y=ax+b 然后在找个身高x预测体重y

x=[0.75,0.85,0.95,1.08,1.12,1.16,1.35,1.51,1.55,1.6,1.63,1.67,1.71,1.78,1.85]
y=[10,12,15,17,20,22,35,41,48,50,51,54,59,66,75]

把x,y变成矩阵

x=np.array(x)
y=np.array(y)

把x,y数据绘制成散点图

plt.scatter(x,y)
plt.axis([0,2,0,100]) #axis传入坐标轴x,y的起点和终点
plt.ylabel("身高和体重的散点图") #标签
plt.show()

计算x,y的算数平均数 因为后边要用求a,b

x_mean = np.mean(x)
y_mean = np.mean(y)

print(x_mean,y_mean)

训练部分

num = 0.0
d = 0.0
for x_i,y_i in zip(x,y):
#a的分子
num +=(x_i - x_mean) *(y_i-y_mean)
#a的分母
d +=(x_i - x_mean)**2
a = num / d
b = y_mean - a * x_mean

预测 输入任意x 这里我采用输入一个随机数组

t = np.random.uniform(0,2)
g = a * t + b
print("输入的x是:",t)
print("预测的体重y是:",g)
print(a,b)

print(a,b)

原文地址:https://www.cnblogs.com/nanfengnan/p/14013232.html