1樓:匿名使用者
決策樹主要有baiid3,c4.5,cart等形式。duid3選取資訊增益的zhi屬性遞迴進行dao分類,c4.
5改進內為使用資訊增容益率來選取分類屬性。cart是classfication and regression tree的縮寫。表明cart不僅可以進行分類,也可以進行回歸。
2樓:匿名使用者
這種問題就別在知道提問了吧
決策樹演算法 cart和c4.5決策樹有什麼區別?各用於什麼領域?
3樓:
c4.5演算法
是在id3演算法的基礎上採用資訊增益率的方法選擇測試屬性。 id3演算法和c4.5演算法雖然在對訓練樣內本集的學習容中可以盡可能多地挖掘資訊,但其生成的決策樹分支較大,規模較大。
為了簡化決策樹的規模,提高生成決策樹的效率,又出現了根據gini係數來選擇測試屬性的決策樹演算法cart。
cart演算法採用一種二分遞迴分割的技術,與基於資訊熵的演算法不同,cart演算法對每次樣本集的劃分計算gini係數,gini係數,gini係數越小則劃分越合理。cart演算法總是將當前樣本集分割為兩個子樣本集,使得生成的決策樹的每個非葉結點都只有兩個分枝。因此cart演算法生成的決策樹是結構簡潔的二叉樹。
4樓:匿名使用者
1、baic4.5演算法是在id3演算法的基礎上du採用資訊增益率的方法zhi選擇測試屬性。cart演算法採用一種dao
二分遞迴歸分割的技術,與基答
於資訊熵的演算法不同,cart演算法對每次樣本集的劃分計算gini係數,gini係數,gini係數越小則劃分越合理。
2、決策樹演算法是一種逼近離散函式值的方法。它是一種典型的分類方法,首先對資料進行處理,利用歸納演算法生成可讀的規則和決策樹,然後使用決策對新資料進行分析。本質上決策樹是通過一系列規則對資料進行分類的過程。
3、決策樹演算法構造決策樹來發現資料中蘊涵的分類規則.如何構造精度高、規模小的決策樹是決策樹演算法的核心內容。決策樹構造可以分兩步進行。第一步,決策樹的生成:
由訓練樣本集生成決策樹的過程。一般情況下,訓練樣本資料集是根據實際需要有歷史的、有一定綜合程度的,用於資料分析處理的資料集。第二步,決策樹的剪技:
決策樹的剪枝是對上一階段生成的決策樹進行檢驗、校正和修下的過程,主要是用新的樣本資料集(稱為測試資料集)中的資料校驗決策樹生成過程中產生的初步規則,將那些影響預衡準確性的分枝剪除。
envi中怎麼利用c4.5決策樹進行分類
5樓:匿名使用者
envi裡的決策樹分類,
是每乙個節點輸入乙個公式,該公式返回兩個值1(是)和0(不是),當然可以用自己定義的其他指標進行分類。只要在節點輸入你需要的表示式就可以。
請教決策樹c4.5演算法的乙個小問題
6樓:晰美酒窩
紅黑樹是一復種自平衡二叉查制找樹,是在電腦科學中用到的一種資料結構,典型的用途是實現關聯陣列。它是在2023年由rudolf bayer發明的,他稱之為"對稱二叉b樹",它現代的名字是在 leo j. guibas 和 robert sedgewick 於2023年寫的
c4.5是一系列用在機器學習和資料探勘的分類問題中的演算法。它的目標是監督學習:
給定乙個資料集,其中的每乙個元組都能用一組屬性值來描述,每乙個元組屬於乙個互斥的類別中的某一類。c4.5的目標是通過學習
如何用r進行決策樹c4.5演算法的運用
7樓:匿名使用者
你是說對樣本是嘛?看你用決策樹來幹嘛?如果是分類的話,一般進行離散化,也就是每個feature的值屬於某幾種,如果是回歸**的話,則直接使用原來的值~