Różnice

Różnice między wybraną wersją a wersją aktualną.

Odnośnik do tego porównania

Both sides previous revision Poprzednia wersja
Nowa wersja
Poprzednia wersja
pl:dydaktyka:ml:2014lab3 [2014/03/17 12:17]
esimon [Wczytywanie i analiza danych]
pl:dydaktyka:ml:2014lab3 [2019/06/27 15:50] (aktualna)
Linia 2: Linia 2:
 //Drzewo decyzyjne to graficzna metoda wspomagania procesu decyzyjnego,​ stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów.//​ //Drzewo decyzyjne to graficzna metoda wspomagania procesu decyzyjnego,​ stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów.//​
 ===== Przykład drzewa decyzyjnego ===== ===== Przykład drzewa decyzyjnego =====
-Przykładowe drzewo decyzyjne zostało przedstawione poniżej.+Przykładowe drzewo decyzyjne ​(dla danych z {{:​pl:​dydaktyka:​ml:​weather.nominal.arff.zip|}}) ​zostało przedstawione poniżej.
  
 {{:​pl:​dydaktyka:​ml:​dt.png|Drzewo decyzyjne}} {{:​pl:​dydaktyka:​ml:​dt.png|Drzewo decyzyjne}}
Linia 62: Linia 62:
 </​code>​ </​code>​
  
-**Pytanie** Korzystając ze zbioru danych ​tabeli z poprzedniej sekcji, policz entropię i przyrost wiedzy dla poszczególnych atrybutów. ​+**Pytanie** Korzystając ze zbioru danych ​tabeli z poprzedniej sekcji, policz entropię i przyrost wiedzy dla poszczególnych atrybutów.  **Uwaga** - w przykładzie mamy do czynienia z problemem binarnym, więc sumy ze wzorów tak naprawdę będą tylko dwuelementowe (poza liczeniem //​information gain// dla atrubutu //sky//).
   * Dla którego z atrybutów entropia jest największa?​   * Dla którego z atrybutów entropia jest największa?​
   * Dla którego z atrybutów //​information gain// jest największy?​   * Dla którego z atrybutów //​information gain// jest największy?​
-  * Analizujac ​wyniki, czy dobrze wybrałeś(aś) korzeń drzewa w z poprzedniego pytania?+  * Analizując ​wyniki, czy dobrze wybrałeś(aś) korzeń drzewa w pytaniu ​poprzedniej sekcji?
  
  
 ===== Wprowadzenie do Weki ===== ===== Wprowadzenie do Weki =====
 [[http://​www.cs.waikato.ac.nz/​~ml/​weka/​|Weka]],​ to narzędzie opensource do data miningu. [[http://​www.cs.waikato.ac.nz/​~ml/​weka/​|Weka]],​ to narzędzie opensource do data miningu.
-Uruchom je wykonując polecenie ​+Uruchom je wykonując ​w konsoli ​polecenie. Jeśli program nie jest zainstalowany,​ ściagnij go ze strony ​
 <​code>​ <​code>​
-weka +weka  
 +</​code>​ 
 + 
 +Jeśli program nie jest zainstalowany,​ ściągnij go ze strony: ​ [[http://​www.cs.waikato.ac.nz/​~ml/​weka/​|Weka]] i uruchom: 
 +<​code>​ 
 +$ java -jar weka.jar
 </​code>​ </​code>​
  
Linia 86: Linia 91:
   - Który z atrybutów najlepiej rozdziela dane? ;)   - Który z atrybutów najlepiej rozdziela dane? ;)
   - Ile elementów ze zbioru danych ma atrybut wilgotność (//​humidity//​) ustawioną jako //high//?   - Ile elementów ze zbioru danych ma atrybut wilgotność (//​humidity//​) ustawioną jako //high//?
- 
-  - Wprowadzenie do weki: 
-    - Histotgramy 
-    - Nieprzydatne cechy 
  
 ==== Drzewa decyzyjne ==== ==== Drzewa decyzyjne ====
 +  - Wczytaj plik swimming.arff ze zbioru danych
 +  - Kliknij w zakładkę **Clasify**
 +  - Wybierz za pomocą przycisku **Choose** klasyfikator Id3.
 +  - Upewnij się, że w oknie //Test options// zaznaczona jest opcja //Use training set//. Uwaga! W przyszłości **nie** będziemy korzystać z tej formy testowania ​ - tutaj jesteśmy zmuszeni, z uwagi na niewielki zbiór uczący.
 +  - Kliknij w przycisk **Start**. Przyjrzyj się rezultatowi. Co oznaczają wyniki? \\ {{:​pl:​dydaktyka:​ml:​weka-clasify-1.png?​600|}}
 +  - Wybierz za pomocą przycisku **Choose** klasyfikator J48 i kliknij **Start**, następnie zwizualizuj drzewo tak jak to pokazano poniżej: \\ {{:​pl:​dydaktyka:​ml:​weka-visualize-tree.png?​600|}}
 +  - Czy drzewo wygląda tak jak je narysowałeś(aś) na początku laboratorium?​ \\ {{:​pl:​dydaktyka:​ml:​tree-begining.png|}}
 +
 +==== Poprawność klasyfikacji ====
 +  - Załaduj plik {{:​pl:​dydaktyka:​ml:​credit-g.arff.gz|credit-g.arff}} do Weki. Zawiera on dane uczące dla systemu, który na podstawie atrybutów zawartych w pliku powinien określać czy dany zestaw wartości atrybutów wskazuje na wiarygodnego klienta banku, czy też nie - czy można przyznać mu kredyt, czy jest to ryzykowne.
 +  - Przejdź do zakładki **Classify** i wybierz algorytm J48.
 +  - W obszarze //Test options// wybierz opcje //​Percentage split// z wartością 66% Oznacza to, ze 66% danych posłuży do uczenia, a 34% do walidacji. Jakie to ma znaczenie?
 +  - Uruchom algorytm. Ile procent przypadków zostało poprawnie zaklasyfikowanych?​ Czy to dobry wynik?
 +  - Zmień klasyfikator na //ZeroR// z gałęzi //rules//. Jakie są wyniki? ​
 +  - Wypróbuj inne klasyfikatory. Jakie dają wyniki?
 +  - Przejdź do zakładki **Preprocess** i zobacz jak wygląda rozkład atrybutu określającego czy danych zestaw jest //dobry// czy //zły//. Jaka byłaby skuteczność algorytmu który niezależnie od wartości atrybutów "​strzelałby"​ że użytkownik jest wiarygodny?
 +  - Dlaczego przed przystąpieniem do klasyfikacji,​ warto wcześniej przyjrzeć się danym? ;P
 +
 +==== User Classifier ====
 +  - Zbuduj drzewo z wykorzystaniem klasyfikatora "User Classifier"​ dla danych z pliku (użyj PPM do "​domknięcia"​ wielokąta):​ \\ {{:​pl:​dydaktyka:​ml:​polygon.png|}}
 +  - Zaakceptuj zbudowane drzewo i zobacz wyniki:\\ {{:​pl:​dydaktyka:​ml:​user-accept.png|}}
 +
 +
  
-  - J48 (i inne) 
-    - Zbudowanie drzewa do przykladu z zajec i do innych 
-    -  User clasifier 
-    - ZeroR 
  
pl/dydaktyka/ml/2014lab3.1395055035.txt.gz · ostatnio zmienione: 2019/06/27 15:54 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0