久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    Boosting算法(提升法)

     無名小卒917 2019-02-14

    (1)函數模型:Boosting的函數模型是疊加型的,即

    F(x)=i=1kfi(x;θi)

    (2)目標函數:選定某種損失函數作為優化目標
    E{F(x)}=E{i=1kfi(x;θi)}

    (3)優化算法:貪婪地逐步優化,即
    θm?=arg?minθmE{i=1m?1fi(x;θi?)+fm(x;θm)}

    需要解決的問題

    對于Boosting算法,需要解決兩個問題:

    1. 如何調整訓練集,使得在訓練集上訓練的弱分類器得以進行;
    2. 如何將訓練得到的各個弱分類器聯合起來形成強分類器。

    特點:

    1. Boosting是一種框架算法,擁有系列算法,如AdaBoost,GradientBoosting,LogitBoost等算法。
    2. Boosting系列算法的主要區別在于其三要素選取的函數不同
    3. 可以提高任意給定學習算法準確度
    4. 訓練過程為階梯狀,弱分類器按次序一一進行訓練(實現上可以做到并行),弱分類器的訓練集按照某種策略每次都進行一定的轉化。最后以一定的方式將弱分類器組合成一個強分類器。
    5. Boosting中所有的弱分類器可以是不同類的分類器

    圖示:

    這里寫圖片描述


    AdaBoost算法

    算法的實現:

    1、若為Adaboost分類,函數模型使用CART分類樹;若為Adaboost回歸,函數模型使用CART回歸樹。

    2、損失函數為“指數損失函數”

    3、針對Boosting需要解決的兩個問題,AdaBoost算法采用了以下策略:

    1. 使用加權后選取的訓練數據代替隨機選取的訓練樣本,這樣將訓練的焦點集中在比較難分的訓練數據樣本上;
    2. 將弱分類器聯合起來,使用加權的投票機制代替平均投票機制。讓分類效果好的弱分類器具有較大的權重,而分類效果差的分類器具有較小的權重。

    特點

    1. 核心思想:針對同一個訓練集訓練不同的弱分類器,然后把這些弱分類器根據權值集合起來,構造一個更強的最終分類器。
    2. Adaboost算法是Boosting系列算法之一,強分類器輸出結果的是弱分類器輸出結果的加權平均。
    3. Adaboost算法有兩個權值,分別為樣本權值和弱分類器權值,其主要特征就是在于樣本權值的更新和弱分類器權值的更新。
    4. Adaboost中所有的弱分類器必須是同一種分類器,不能在同一個Adaboost算法的迭代步驟中使用不同的弱分類器。
    5. 弱分類器可并行實現。

    算法的優缺點

    Adaboost的主要優點有:

    1. Adaboost作為分類器時,分類精度很高
    2. 在Adaboost的框架下,可以使用各種回歸分類模型來構建弱學習器,非常靈活。
    3. 作為簡單的二元分類器時,構造簡單,結果可理解。
    4. 不容易發生過擬合

    Adaboost的主要缺點有:

    1. 對異常樣本敏感,異常樣本在迭代中可能會獲得較高的權重,影響最終的強學習器的預測準確性。
          

    權值更新規則

    樣本權值更新:

    對于分類錯誤的樣本,加大其對應的權重;而對于分類正確的樣本,降低其權重,這樣分錯的樣本就被突顯出來,從而得到一個新的樣本分布。

    弱分類器權值更新:

    對于準確率較高的弱分類器,加大其權重;對于準確率較低的弱分類器,減小其權重。

    適用范圍

    1. 用于二分類或多分類的應用場景
    2. 用于做分類任務的baseline

    算法過程

    將樣本權值被更新過的新數據集送給下層弱分類器進行訓練,最后將每次訓練得到的弱分類器根據弱分類器權重融合起來,從而得到強分類器。

    1. 給定訓練樣本集S,其中X和Y分別對應于正例樣本和負例樣本; T為訓練的最大循環次數;
    2. 初始化樣本權重為1/n ,即為訓練樣本的初始概率分布;
    3. 第一次迭代:
      (1) 訓練樣本的概率分布相當下,訓練弱分類器;
      (2) 計算弱分類器的錯誤率;
      (3) 選取合適閾值,使得誤差最小;
      (4) 更新樣本權重;
      經T次循環后,得到T個弱分類器,按更新的弱分類器權重疊加,最終得到的強分類器。

    Gradient Boosting算法

    算法的實現:

    1、函數模型為CART回歸樹模型

    2、損失函數一般為“對數損失函數”或“指數損失函數”
    Gradient Boosting算法即梯度提升算法,

    3、優化算法采用梯度下降

    4、針對Boosting需要解決的兩個問題,Gradient Boosting算法采用了以下策略:

    1. 將殘差作為下一個弱分類器的訓練數據,每個新的弱分類器的建立都是為了使得之前弱分類器的殘差往梯度方向減少。
    2. 將弱分類器聯合起來,使用累加機制代替平均投票機制。

    特點

    1. 核心思想:每個新的弱分類器的建立是為了使得之前弱分類器的殘差往梯度方向減少,然后把弱分類器進行累加得到強分類器。
    2. GBDT算法是Boosting系列算法之一,強分類器的輸出結果是弱分類器輸出結果的累加。
    3. GBDT中所有的弱分類器只能是CART回歸樹
    4. 弱分類器無法并行實現

    算法的優缺點

    GBDT主要的優點有:

    1. 可以靈活處理各種類型的數據,包括連續值和離散值。
    2. 在相對少的調參時間情況下,預測的準備率也可以比較高。這個是相對SVM來說的。
    3. 使用一些健壯的損失函數,對異常值的魯棒性非常強。比如 Huber損失函數和Quantile損失函數。

    GBDT的主要缺點有:

    1. 由于弱學習器之間存在依賴關系,難以并行訓練數據。不過可以通過自采樣的SGBT來達到部分并行。

    適用范圍

    1. GBDT幾乎可用于所有的回歸問題(線性/非線性)
    2. 亦可用于二分類問題(設定閾值,大于閾值為正例,小于閾值為反例)
    3. 不太適用于多分類問題

    算法過程

    1. 對數據擬合一個簡單的線性回歸或決策樹
    2. 計算誤差殘差。實際目標值減去預測目標值
    3. 將誤差殘差的新模型作為具有相同輸入變量的目標變量
    4. 將預測的殘差添加到先前的預測中[y_predicted2 = y_predicted1 + e1_predicted]
    5. 在剩余的殘差上擬合另一個模型。即[e2 = y-y_predicted2]并重復步驟2到5,直到它開始過擬合或殘差總和變成恒定。

    工作過程實例

    以年齡預測為例,A,B,C,D四個人,他們的年齡分別是14,16,24,26。其中A、B分別是高一和高三學生;C,D分別是應屆畢業生和工作兩年的員工。如果是用一棵傳統的回歸決策樹來訓練,會得到如下圖1所示結果:

    這里寫圖片描述

    現在我們使用GBDT來做這件事,由于數據太少,我們限定葉子節點做多有兩個,即每棵樹都只有一個分枝,并且限定只學兩棵樹。我們會得到如下圖2所示結果:

    這里寫圖片描述

    在第一棵樹分枝和圖1一樣,由于A,B年齡較為相近,C,D年齡較為相近,他們被分為兩撥,每撥用平均年齡作為預測值。此時計算殘差(殘差的意思就是: A的預測值 + A的殘差 = A的實際值),所以A的殘差就是16-15=1(注意,A的預測值是指前面所有樹累加的和,這里前面只有一棵樹所以直接是15,如果還有樹則需要都累加起來作為A的預測值)。進而得到A,B,C,D的殘差分別為-1,1,-1,1。然后我們拿殘差替代A,B,C,D的原值,到第二棵樹去學習,如果我們的預測值和它們的殘差相等,則只需把第二棵樹的結論累加到第一棵樹上就能得到真實年齡了。這里的數據顯然是我可以做的,第二棵樹只有兩個值1和-1,直接分成兩個節點。此時所有人的殘差都是0,即每個人都得到了真實的預測值。

    換句話說,現在A,B,C,D的預測值都和真實年齡一致了。Perfect!:

    A: 14歲高一學生,購物較少,經常問學長問題;預測年齡A = 15 – 1 = 14

    B: 16歲高三學生;購物較少,經常被學弟問問題;預測年齡B = 15 + 1 = 16

    C: 24歲應屆畢業生;購物較多,經常問師兄問題;預測年齡C = 25 – 1 = 24

    D: 26歲工作兩年員工;購物較多,經常被師弟問問題;預測年齡D = 25 + 1 = 26

      本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發現有害或侵權內容,請點擊一鍵舉報。
      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 福利一区二区在线播放| 韩国免费A级毛片久久| 四虎亚洲精品高清在线观看| 亚洲AV无码专区亚洲AV桃 | 精品国产高清中文字幕| 国产又色又刺激高潮视频| 又湿又紧又大又爽A视频国产| 国产另类ts人妖一区二区| 成 人影片免费观看| 51精品免费视频国产专区| 中国熟妇毛多多裸交视频| 吃奶呻吟打开双腿做受动态图| 国产情侣激情在线对白| 久久丫精品国产亚洲AV| 国厂精品114福利电影免费| 亚洲熟妇无码一区二区三区| 成人免费无码大片A毛片抽搐色欲 成人啪精品视频网站午夜 | 色AV专区无码影音先锋| 女上男下激烈啪啪无遮挡| 一本大道久久东京热AV| 欧美性群另类交| 亚洲愉拍一区二区三区| 高清有码国产一区二区| 国产亚洲一区二区在线观看| 成人网站免费观看永久视频下载| 一本一道久久A久久精品综合| 成人无码潮喷在线观看| 麻豆一二三区精品蜜桃| 欧美国产日韩在线三区| 国产高清在线男人的天堂 | 日韩大片高清播放器大全| 亚洲中文字幕无码中字| 日产无人区一线二线三线乱码蘑菇| 日韩中文字幕亚洲精品| 亚洲精品V天堂中文字幕| 手机看片日本在线观看视频| 99福利一区二区视频| 日韩夜夜高潮夜夜爽无码| 国产免费一区二区三区不卡| 丁香五月亚洲综合在线国内自拍| 四虎亚洲国产成人久久精品|