[[
✎ pl:dydaktyka:ml:2014lab3
]]
aiWiki
Pokaż stronę
Ostatnie zmiany
Indeks
Zaloguj
Ta strona jest tylko do odczytu. Możesz wyświetlić źródła tej strony ale nie możesz ich zmienić.
====== Drzewa decyzyjne ====== - O co chodzi z drzewami decyzyjnymi ===== Przykład drzewa decyzyjnego ===== - Przykład drzewa dla danych z poprzedniego ćwiczenia (lub zoo) ===== Algorytm ID3 ===== Algorytm ID3 służący do budowania drzew decyzyjnych bazuja na dwóch parametrach, które można wyliczyć bezpośrednio ze zbioru uczącego: * Entropii - będącej miarą zróżnicowania danych * Przyrostu wiedzy (//Information Gain//) - miara różnicy Entropii przed i po rozbiciu zbioru danych $S$ przy pomocy atrybutu $A$ ==== Entropia ==== $$H(S) = - \sum_{x \in X} p(x) \log_{2} p(x) $$ Gdzie * $S$ - Aktualny zbiór danych dla którego liczona jest entropia (dla każdego węzła drzewa będzie to inny - odpowiednio mniejszy zbiór danych) * $X$ - zbiór klas w zbiorze $S$ * $p(x)$ - Stosunek liczby elementów z klasy $x$ do liczby elementów w zbiorze $S$ ==== Przyrost wiedzy (Information Gain) ==== $$G(A) = H(S) - \sum_{t \in T} p(t)H(t) $$ Gdzie, * $H(S)$ - Entropia dla zbioru $S$ * $T$ - Podzbiór powstały z rozbicia zbioru $S$ przez atrybut $A$, w taki sposób, że $S = \bigcup_{t \in T} t$ * $p(t)$ - Stosunek ilości elementów w $t$ do ilości elementów w $S$ * $H(t)$ - Entropia podzbioru $t$ ==== Algorytm ID3 ==== - Zasady budowania drzewa - algorytm ID3 - Policz entropię i informaiton gain - wyznacz korzeń drzewa. ===== Wprowadzenie do Weki ===== - Wprowadzenie do weki: - Histotgramy - Nieprzydatne cechy - J48 - Zbudowanie drzewa do przykladu z zajec i do innych - User clasifier - ZeroR
pl/dydaktyka/ml/2014lab3.1395049729.txt.gz
· ostatnio zmienione: 2019/06/27 15:54 (edycja zewnętrzna)
Pokaż stronę
Poprzednie wersje
Menadżer multimediów
Do góry