一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Python 機器學習之線性回歸詳解分析

Python 機器學習之線性回歸詳解分析

2022-02-26 00:21路燈下的禿子 Python

回歸是監督學習的一個重要問題,回歸用于預測輸入變量和輸出變量之間的關系,特別是當輸入變量的值發生變化時,輸出變量的值也隨之發生變化。回歸模型正是表示從輸入變量到輸出變量之間映射的函數

為了檢驗自己前期對機器學習中線性回歸部分的掌握程度并找出自己在學習中存在的問題,我使用C語言簡單實現了單變量簡單線性回歸。

本文對自己使用C語言實現單變量線性回歸過程中遇到的問題和心得做出總結。

線性回歸

線性回歸是機器學習和統計學中最基礎和最廣泛應用的模型,是一種對自變量和因變量之間關系進行建模的回歸分析。

代碼概述

本次實現的線性回歸為單變量的簡單線性回歸,模型中含有兩個參數:變量系數w、偏置q。

訓練數據為自己使用隨機數生成的100個隨機數據并將其保存在數組中。采用批量梯度下降法訓練模型,損失函數使用平方損失函數。

Python 機器學習之線性回歸詳解分析

上圖為整個程序的函數調用關系。

下面貼代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
#include<stdio.h>
#include<stdlib.h>
#include<math.h>
#include<time.h>
 
double w, q;
int m;
//模型
float Model(float x)
{
    float y;
    y = x * w + q;
    return y;
}
 
//損失函數
double Loss(float *y,float *x)
{
    double L=0;
    //循環參數
    int i, j, k;
    for (i = 0; i < m; i++)
    {
        L += (pow((y[i] - Model(x[i])), 2)) / (2 * m);
    }
    return L;
 
}
 
//梯度下降優化函數
void Gradient_Descent_Optimizer(float *x,float *y,float a)
{
    int j, i;
    double Q = 0, W = 0;
    for (i = 0; i < m; i++)
        W += x[i] * (Model(x[i]) - y[i]);
    W = W / m;
    for (j = 0; j < m; j++)
        Q += Model(x[j]) - y[j];
    Q = Q / m;
    printf("W:%f\nQ:%f\n", W, Q);
    w = w - a * W;
    q = q - a * Q;
}
 
//主函數;訓練過程
int main()
{
    //循環標志
    int i, j;
    //訓練輪次
    int epoch;
    //損失函數
    double L;
    //學習率
    float a;
    float x[100], y[100];
    //隨機數生成
    for (i = 0; i < 100; i++)
    {
        x[i] = 0.1*i;
        y[i] = x[i] * 3 + 5; //+ ((rand() % 11) / 10);
        printf("X:%.2f,Y:%.2f\n", x[i], y[i]);
    }
    //超參數設置
    m = 100;
    a = 0.05;
    epoch = 1000;
    //參數初始化
    w = 2;
    q = 3;
    for (j = 0; j < epoch; j++)
    {
        Gradient_Descent_Optimizer(x, y, a);
        L = Loss(y, x);
        printf("訓練輪次:%d,損失:%f,參數w的值:%lf,參數q的值:%lf\n", j+1, L, w, q);
    }
    printf("最終值:\nw:%lf\nq:%lf\n", w, q);
    system("pause");
}

問題總結

下面對在編寫過程中需要注意的問題進行總結:

1.參數更新

模型中的參數需要同步更新。所有參數的更新值經過梯度下降法計算得出后要在最后同時更新所有參數。

2.保留損失函數

在代碼編寫過程中自己認為不用單獨寫一個損失函數,只需在梯度下降的過程中利用求導后的公式進行相關的參數優化操作即可,但在運行沒有算是函數的程序時,沒有實時的損失函數結果評估模型訓練效果可能會導致模型在錯誤的道路上越走越遠。

3.注意數據類型

初次運行程序,在訓練至十幾輪時參數就不再變化,一直到第1000輪參數都保持不變。后來在檢查代碼時發現,在優化函數將一些參數的數據類型錯誤設置為整型。因此當參數值改變程度小于1時,參數將不再變化。

4.超參數的設置及參數的初始化

學習率,訓練輪次等的設置是一個對程序編寫者經驗要求比較高的工作,需要多次嘗試,找到合適的值,參數的初始化也是這樣。

心得

本次只是實現了簡單線性回歸的最基本的功能,同時也試一下自己剛買的機械鍵盤(用起來真的很舒服)。這只是我用來練手的程序,如果真的要編寫程序實現功能還是推薦使用python語言搭配TensorFlow、Pytorch等深度學習平臺實現自己想要的功能。程序的可完善空間非常大,比如數據和模型的可視化,將數據和模型的訓練效果直觀的展示出來,后面還會有序的用C語言實現諸如多元線性回歸,二分類問題,多分類問題甚至卷積神經網絡等等。我會在下面貼出使用Python語言編寫的線性回歸的程序,可以兩者結合起來比較一下異同。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
# -*- coding: utf-8 -*-
"""
Spyder Editor
This is a temporary script file.
"""
import matplotlib.pyplot as plt
import tensorflow as tf
import numpy as np
 
np.random.seed(5)
 
x_data = np.linspace(-1,1,100)
y_data = 2 * x_data + 1.0 + np.random.randn(*x_data.shape) * 0.4
 
np.random.randn(10)
 
#x_data.shape
 
#np.random.randn(*x_data.shape)
#np.random.randn(100)
plt.scatter(x_data,y_data)
plt.plot(x_data, 2 * x_data + 1.0, color = 'red',linewidth=3)
 
x = tf.placeholder("float",name="x")
y = tf.placeholder("float",name="y")
 
def model(x,w,b):
    return tf.multiply(x,w)+b
 
w = tf.Variable(1.0,name="w0")
b = tf.Variable(0.0,name="b0")
 
pred = model(x,w,b)
 
train_epochs = 10
learning_rate = 0.05
 
loss_function = tf.reduce_mean(tf.square(y-pred))
 
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)
 
sess = tf.Session()
 
init = tf.global_variables_initializer()
sess.run(init)
 
i_ci=0
 
for epoch in range(train_epochs):
    for xs,ys in zip(x_data,y_data):
        _, loss=sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys})
        b0temp=b.eval(session=sess)
        w0temp=w.eval(session=sess)
    plt.plot(x_data,w0temp*x_data+b0temp)
        
print("w:",sess.run(w))
print("b:",sess.run(b))
 
plt.scatter(x_data,y_data,label='Original data')
plt.plot(x_data,x_data*sess.run(w)+sess.run(b),label='Fitted Line',color='r',linewidth=3)
plt.legend(loc=2)

到此這篇關于Python 機器學習之線性回歸詳解分析的文章就介紹到這了,更多相關Python 機器學習內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/qq_44313580/article/details/121192240

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 青青久在线视频免费观看 | 亚洲va欧美va国产综合久久 | 亚洲精品福利一区二区在线观看 | 蜜桃免费 | 亚欧成人中文字幕一区 | 千金肉奴隶免费观看 | tk白嫩玉足脚心vk | 国自产精品手机在线视频 | 久久热这里只有 精品 | 高清一级做a爱免费视 | 波多野结衣两女调教 | 欧美一级免费看 | 精品亚洲视频在线观看 | 亚洲国产天堂在线观看 | 国产成人性毛片aaww | 美女天天操 | 免费看3d小舞被躁视频网站 | 四虎免费看黄 | 成人精品第一区二区三区 | 色综合久久日韩国产 | 日本免费不卡在线一区二区三区 | 乳女教师欲乱动漫无修版动画3d | 奇米777狠狠 | 国产精品亚欧美一区二区三区 | 奇米影视在线视频8888 | 久久re热在线视频精69 | 村上里沙40分钟在线观看 | 国产精品亚洲精品日韩已方 | 亚洲精品 欧美 | 白丝美女同人18漫画 | 青青青国产视频 | 日本人成年视频在线观看 | 91制片在线观看 | 欧美日韩国产精品va | 我与旗袍老师疯狂床震 | 韩国美女豪爽一级毛片 | 亚洲色导航 | 亚洲精品国产专区91在线 | 亚洲精品tv久久久久久久久久 | 免费看男女污污完整版 | 美女大鸡鸡 |