====== Laboratorium 10 -- Drzewa decyzyjne ====== ===== Instrukcje do laboratorium ===== - Notebook do pobrania: [[https://drive.google.com/file/d/1mdTmhWDSoAXpZwiTMUwFM-a1GNctJ_GN/view?usp=sharing|decisiontrees.ipynb]] - W celu załadowania, wybierz 'File->Upload Notebook' w Google Colab. W przypadku lokalnej wersji, po prostu nawiguj w oknie przeglądarki do miejsca gdzie zapisany jest notebook. ===== Materiały ===== * Wykład o drzewach decycyjnych: {{ :pl:dydaktyka:ml:dtrees.pdf |}} * Wykład o zespołach klasyfikatorów{{ :pl:dydaktyka:ml:ensemble.pdf |}} ===== Wprowadzenie do Weki ===== [[http://www.cs.waikato.ac.nz/~ml/weka/|Weka]], to narzędzie opensource do data miningu. Uruchom je wykonując w konsoli polecenie. Jeśli program nie jest zainstalowany, ściagnij go ze strony $ weka Jeśli program nie jest zainstalowany, ściągnij go ze strony: [[http://www.cs.waikato.ac.nz/~ml/weka/|Weka]] i uruchom: $ java -jar weka.jar ==== Wczytywanie i analiza danych ==== - Pobierz paczkę plików z danymi: {{:pl:dydaktyka:ml:data.tar.gz|}} - Otwórz w Gedicie plik o nazwie swimming.arff i poznaj strukturę plików uczących dla weki z danymi symbolicznymi. - Uruchom Wekę i kliknij w przycisk **Explorer** - Przeanalizuj pierwszą zakładkę GUI i odpowiedz na pytania poniżej: \\ {{:pl:dydaktyka:ml:weka-preprocess.png?600|}} **Pytania** - Jaki jest rozmiar zbioru uczącego? - Ile atrybutów występuje w zbiorze uczącym? - Ile jest instancji jest pozytywnych (//Enjoy=yes//) a ile negatywnych? - Który z atrybutów najlepiej rozdziela dane? ;) - Ile elementów ze zbioru danych ma atrybut wilgotność (//humidity//) ustawioną jako //high//? ==== Drzewa decyzyjne ==== - Wczytaj plik swimming.arff ze zbioru danych - Kliknij w zakładkę **Clasify** - Wybierz za pomocą przycisku **Choose** klasyfikator Id3. - Upewnij się, że w oknie //Test options// zaznaczona jest opcja //Use training set//. Uwaga! W przyszłości **nie** będziemy korzystać z tej formy testowania - tutaj jesteśmy zmuszeni, z uwagi na niewielki zbiór uczący. - Kliknij w przycisk **Start**. Przyjrzyj się rezultatowi. Co oznaczają wyniki? \\ {{:pl:dydaktyka:ml:weka-clasify-1.png?600|}} - Wybierz za pomocą przycisku **Choose** klasyfikator J48 i kliknij **Start**, następnie zwizualizuj drzewo tak jak to pokazano poniżej: \\ {{:pl:dydaktyka:ml:weka-visualize-tree.png?600|}} - Czy drzewo wygląda tak jak je narysowałeś(aś) na początku laboratorium? \\ {{:pl:dydaktyka:ml:tree-begining.png|}} ==== Poprawność klasyfikacji ==== - Załaduj plik {{:pl:dydaktyka:ml:credit-g.arff.gz|credit-g.arff}} do Weki. Zawiera on dane uczące dla systemu, który na podstawie atrybutów zawartych w pliku powinien określać czy dany zestaw wartości atrybutów wskazuje na wiarygodnego klienta banku, czy też nie - czy można przyznać mu kredyt, czy jest to ryzykowne. - Przejdź do zakładki **Classify** i wybierz algorytm J48. - W obszarze //Test options// wybierz opcje //Percentage split// z wartością 66% Oznacza to, ze 66% danych posłuży do uczenia, a 34% do walidacji. Jakie to ma znaczenie? - Uruchom algorytm. Ile procent przypadków zostało poprawnie zaklasyfikowanych? Czy to dobry wynik? - Zmień klasyfikator na //ZeroR// z gałęzi //rules//. Jakie są wyniki? - Wypróbuj inne klasyfikatory. Jakie dają wyniki? - Przejdź do zakładki **Preprocess** i zobacz jak wygląda rozkład atrybutu określającego czy danych zestaw jest //dobry// czy //zły//. Jaka byłaby skuteczność algorytmu który niezależnie od wartości atrybutów "strzelałby" że użytkownik jest wiarygodny? - Dlaczego przed przystąpieniem do klasyfikacji, warto wcześniej przyjrzeć się danym? ;P ==== User Classifier ==== - Zbuduj drzewo z wykorzystaniem klasyfikatora "User Classifier" dla danych z pliku (użyj PPM do "domknięcia" wielokąta): \\ {{:pl:dydaktyka:ml:polygon.png|}} - Zaakceptuj zbudowane drzewo i zobacz wyniki:\\ {{:pl:dydaktyka:ml:user-accept.png|}} ===== Materiały =====