Historia spotkań

080311

080401

  • jak metodami uczenia maszynowego automatycznie budować model ARD?
  • jak uczenie maszynowe może prowadzić do rozbudowy bazy reguł?

080520

  • Zaimplementować uczenie maszynowe dla Termostatu.
    • Zastosowano algorytm ID3, lecz wtedy tworzy sie zbyt wiele gałęzi.
    • Pójście w stronę C4.5 na początku następuje agregacja (wartości są uporządkowane) i zmiana atrybutów porządkowych na inne o mniejszej ilości możliwych wartości.

080527

  • Pytania:
    • Czy jako zbiór uczący może być cała dziedzina, czyli 'dni x godziny x miesiące'?
    • Czy musimy obsługiwać przekłamane przykłady uczące i braki (brak któregoś atrybutu)?
  • Testy:
    • Losowy zbiór uczący składający sie z 150 przykładów
    • Dziedzina składa się z 2016 przypadków
    • Najpierw algorytm buduje drzewo z 150 przykładów zbioru uczącego, następnie pozostałe 1866 są testowane w zbudowanym drzewie
  • Testy algorytmu ID3
    • Przykładowe drzewo które nie zostało w pełni wygenerowane ponieważ program graphviz nie poradził sobie. Było to związane z tym, że atrybuty początkowe zawierały zbyt wiele wartości i każda z nich była w każdym wyniku testu opierającego się o ten atrybut. Czasochłonne i pamięciochłonne było też konstruowanie i przechowywanie w pamięci takiego drzewa. Ilość liści takiego drzewa wynosi 7 (dni) x 24 (godziny) x 12 (miesięcy) = 2016.
    • Wykonano 20 testów.
    • Średnia skuteczność wynosiła 55.3%
    • Poprawnie sklasyfikowane przykłady testowe wahały się od 904 do 1111

080610

  • Testy(przeprowadzane jak przy ID3) algorytmu ID3 uzupełnionego o występujące w C4.5 agregowanie wartości porządkowych i zmianę atrybutów na prostsze
  • Wyniki:
    • Przykładowe drzewo 1 oraz Aggregate1.txt odwzorowujący atrybuty początkowe na te atrybuty po agregacji
    • Przykładowe drzewo 2 oraz Aggregate2.txt odwzorowujący atrybuty początkowe na te atrybuty po agregacji
    • Wykonano 20 testów
    • Średnia skuteczność wynosiła 91.2%
    • Poprawnie sklasyfikowane przykłady testowe wahały się od 1488 do 1866
    • Wyniki uzyskane ulepszonym algorytmem ID3 są lepsze ponieważ już przed rozpoczęciem budowy drzewa zamieniamy wielowartościowe atrybuty na prostsze (mniejsza ilość wartości). Korzystam ze zbioru uczącego się zawierającego 7,4% przykładów (150 / 2016). Zwykły algorytm ID3 dobrze dopasuje każdy ze 150 przykładów, lecz zabraknie mu ogólności dla przykładów spoza tego zbioru. Agregacja pozwala nam podzielić wartości zbyt licznych atrybutów i przejść na prostsze biorąc pod uwagę przyrost informacji (entropię). Najbardziej pożądane jest tak podzielić wartości aby w danym zbiorze występowała przewaga jednych pojęć docelowych (np jednego, kilku) nad pozostałymi (najlepiej żeby ich nie było).
  • Przerobienie całości projektu z języka C# na język Java
pl/miw/miw08_rbs_ml/historia.txt · ostatnio zmienione: 2017/07/17 08:08 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0