To jest stara wersja strony!


Drzewa decyzyjne

  1. O co chodzi z drzewami decyzyjnymi

Przykład drzewa decyzyjnego

  1. Przykład drzewa dla danych z poprzedniego ćwiczenia (lub zoo)

Algorytm ID3

Algorytm ID3 służący do budowania drzew decyzyjnych bazuja na dwóch parametrach, które można wyliczyć bezpośrednio ze zbioru uczącego:

  • Entropii - będącej miarą zróżnicowania danych
  • Przyrostu wiedzy (Information Gain)

Entropia

$$H(S) = - \sum_{x \in X} p(x) \log_{2} p(x) $$

Gdzie

  • $S$ - Aktualny zbiór danych dla którego liczona jest entropia (dla każdego węzła drzewa będzie to inny - odpowiednio mniejszy zbiór danych)
  • $X$ - zbiór klas w zbiorze $S$
  • $p(x)$ - Stosunek liczby elementów z klasy $x$ do liczby elementów w zbiorze $S$

Przyrost wiedzy (Information Gain)

$$G(A) = H(S) - \sum_{t \in T} p(t)H(t) $$

Gdzie,

  • $H(S)$ - Entropia dla zbioru $S$
  • $T$ - Podzbiór powstały z rozbicia zbioru $S$ przez atrybut $A$, w taki sposób, że $S = \bigcup_{t \in T} t$
  • $p(t)$ - Stosunek ilości elementów w $t$ do ilości elementów w $S$
  • $H(t)$ - Entropia podzbioru $t$

Algorytm ID3

  1. Zasady budowania drzewa - algorytm ID3
  2. Policz entropię i informaiton gain - wyznacz korzeń drzewa.

Wprowadzenie do Weki

  1. Wprowadzenie do weki:
    1. Histotgramy
    2. Nieprzydatne cechy
  2. J48
    1. Zbudowanie drzewa do przykladu z zajec i do innych
    2. User clasifier
    3. ZeroR
pl/dydaktyka/ml/2014lab3.1395049477.txt.gz · ostatnio zmienione: 2019/06/27 15:54 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0