免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
CART算法--分類和回歸樹算法
  CART(Classification And Regression Tree)算法采用一種二分遞歸分割的技術(shù),將當前 的樣本集分為兩個子樣本集,使得生成的決策樹的每個非葉子節(jié)點都有兩個分支。因此,CART算法生成的決策樹是結(jié)構(gòu)簡潔的二叉樹。
  以下是算法描述:其中T代表當前樣本集,當前候選屬性集用T_attributelist表示。
 ?。?)創(chuàng)建根節(jié)點N
 ?。?)為N分配類別
 ?。?)if T都屬于同一類別or T中只剩下 一個樣本則返回N為葉節(jié)點,為其分配屬性
  (4)for each T_attributelist中屬性執(zhí)行該屬性上的一個劃分,計算此劃分的GINI系數(shù)
  (5)N的測試屬性test_attribute=T_attributelist中最小GINI系數(shù)的屬性
 ?。?)劃分T得到T1 T2子集
  (7)對于T1重復(fù)(1)-(6)
 ?。?)對于T2重復(fù)(1)-(6)
  CART算法考慮到每個節(jié)點都有成為葉子節(jié)點的可能,對每個節(jié)點都分配類別。分配類別的方法可以用當前節(jié)點中出現(xiàn)最多的類別,也可以參考當前節(jié)點的分類錯誤或者其他更復(fù)雜的方法。
  CART算法仍然使用后剪枝。在樹的生成過程中,多展開一層就會有多一些的信息被發(fā)現(xiàn),CART算法運行到不能再長出分支位置,從而得到一棵最大的決策樹。然后對這棵大樹進行剪枝。
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
ML之DT之CART:分類與回歸樹CART算法的簡介、應(yīng)用、經(jīng)典案例之詳細攻略
人工智能基礎(chǔ)課堂紀要7
ID3與C4.5的區(qū)別
決策樹與隨機森林
數(shù)據(jù)挖掘?qū)W習(xí)筆記:分類、統(tǒng)計學(xué)習(xí)
「AI 科普」一文看懂決策樹(3個步驟 3種典型算法 10個優(yōu)缺點)
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服