久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    深度學習之線性單元(梯度下降算法)(二)

     印度阿三17 2018-09-26

    關于線性

    線性的概念:
    “線性”=“齊次性” “可加性”,
    "齊次性"是指類似于: f(ax)=af(x),
    "可加性"是指類似于: f(x y)=f(x) f(y),

    而對于單層感知器來說,是無法處理非線性的問題。非線性及不符合上述的條件的集合。
    例如異或問題:
    image.png

    無法找到一個合適的直線,將兩邊分離開來。
    所以這時候就需要用到了delta法則。
    ##delta法則

    delta 法則的關鍵思想是使用梯度下降(gradient descent)來搜索可能權向量的假設空間, 以找到最佳擬合訓練樣例的權向量。

    由于在真實情況下,并不能保證訓練集是線性可分的。因而,當訓練集線性不可分時該如何訓練感知器呢?這時我們使用delta法則,通過這種方式可以找出收斂到目標的最佳近似值。

    其原理是:
    image.png

    因為其激活函數是線性的,所以一般被稱為線性單元。

    激活函數:
    image.png

    用向量表示就是:
    image.png

    當然在這一種情況下,還需要考慮其每次計算后的結果的誤差,根據誤差來調整權值。
    而這就需要用到代價函數:
    image.png
    其中y為期望輸出,y`為實際輸出。

    在求得誤差結果最小的情況下,就是我們所求的最優解。注:這里的1/2只是為了后面的計算方便,沒有實際意義。

    為了求得代價函數最小,因為:
    image.png
    對路所有的樣本的誤差和來說:
    image.png

    所以公式可以改寫為:
    image.png

    因為對于樣本來說(其實是監督學習的方式),x和y都是已知的,所以上述的公式中其實就是w和E(w)的關系。對整個代價函數來說,其實只有一個變量w。

    這樣如果想要獲取E(w)的最小值,及誤差最小,只需要獲取的上述變量的最小值即可。因此我們可以使用導數的方式來求取最小值。當然計算機是不會解方程的,所以只能是一步一步的嘗試出最小值。

    因此引進梯度下降算法:
    image.png

    通過不斷的改變w的值,來找到使得E(w)最小的位置:
    image.png

    對w求導結果:
    image.png

    這樣就獲取的權值調整公式。

    我們可以來看一下推斷出來的公式和上一章的單層感知器的差異:
    image.png

    其實只有激活函數不一樣!!!
    下面舉個簡單的例子說明一下:

    問題

    輸入一組工作年限 [[5], [3], [8], [1.4], [10.1]];
    期望輸出其代表的年薪:[5500, 2300, 7600, 1800, 11400]
    通過隨意輸入一個工作年限來預算其的年薪。

    代碼

    # coding=utf-8
    # numpy 支持高級大量的維度數組與矩陣運算
    import numpy  as np
    # Matplotlib 是一個 Python 的 2D繪圖庫
    import matplotlib.pyplot as plt
    
    
    #定義坐標,設定5組輸入數據,每組為(x0,x1,)
    X=np.array([[1,5],
                [1,3],
                [1,8],
                [1,1.4],
                [1,10.1]]);
    
    #設定輸入向量的期待輸出值
    Y=np.array([5500,2300,7600,1800,11400]);
    
    #設定權值向量(w0,w1)
    W = np.array([0,0]); 
    
    #設定學習率
    lr = 0.01;
    #計算迭代次數
    n=0;
    #神經網絡輸出
    O=0;
    
    def  updateW():
        global  X,Y,W,lr,n;
        n =1;
        O=np.dot(X,W.T);
        #計算權值
        W_Tmp = lr*((Y-O.T).dot(X))/int(X.shape[0]);
        #更新權值向量
        W = W W_Tmp;
    
    def draw():
    	global W;
    
    	x1=[5,3,8,1.4,10.1];
    	y1=[5500,2300,7600,1800,11400];
    
    	#繪制分割線需要的等差數列
    	x=np.linspace(0,12);
    	#創建子圖
    	plt.figure();
    	#根據坐標繪圖 激活函數:y=x1W1 w0
    	plt.plot(x,x*W[1] W[0],'r');
    	plt.plot(x1,y1,'*');
    	plt.show();
    
    if __name__ == '__main__':
    	#設置迭代次數
        for index in range (100):
            updateW();
            #獲取組合器輸出結果
            O=np.dot(X,W.T);
            #打印 實際值
            print O;
    
        draw();
    

    執行結果:
    image.png

    參考:

    線性學習器
    https://blog.csdn.net/wasd6081058/article/details/7886697
    零基礎入門深度學習(2) - 線性單元和梯度下降(寫的非常通俗易懂!!!感謝作者)
    https://www./hanbingtao/note/448086
    網易視頻課程——深度學習入門系列
    http://study.163.com/course/courseMain.htm?courseId=1004111045

    來源:http://www./content-1-24611.html

      本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發現有害或侵權內容,請點擊一鍵舉報。
      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 免费AV手机在线观看片| 国产午夜精品一区理论片| 99RE6在线视频精品免费下载| 久久久亚洲AV成人网站| 人妻少妇精品中文字幕| 国产成人欧美日本在线观看| 亚洲成AV人片在线观看麦芽| 色九月亚洲综合网| 国产欧美久久一区二区三区| 另类专区一区二区三区| 16女下面流水不遮视频| 中文字幕结果国产精品| 久9视频这里只有精品试看| 一本精品99久久精品77| 无遮挡免费高清羞羞视频| 国产激情视频在线观看的| 精品午夜久久福利大片| 国产精品一区二区手机在线观看 | 亚洲色欲色欱WWW在线| 亚洲成A人一区二区三区| 国产高清色高清在线观看| 免费无码又爽又刺激软件下载| 久久五月丁香激情综合| 强奷漂亮人妻系列老师| 国产乱码精品一区二区三区四川人| 中文字幕国产精品专区| 性饥渴少妇AV无码毛片| 亚洲高潮喷水无码AV电影| 精品国产乱码久久久久APP下载| 中国少妇初尝黑人巨高清| 噜噜综合亚洲av中文无码| 久久综合精品国产二区无码| 久久精品手机观看| 精品无码久久久久久尤物| 国产精品自在欧美一区| 亚洲 国产 制服 丝袜 一区| 久久毛片少妇高潮| 99久久99久久精品国产片| 粗壮挺进邻居人妻无码| 亚洲熟妇精品一区二区| 国产精品第一二三区久久蜜芽|