Both sides previous revision
Poprzednia wersja
Nowa wersja
|
Poprzednia wersja
|
pl:dydaktyka:ml:lab2 [2013/02/26 10:36] esimon utworzono |
pl:dydaktyka:ml:lab2 [2019/06/27 15:50] (aktualna) |
====== Laboratorium 3 - Concept Learning ====== | ====== Laboratorium 2 - Concept Learning ====== |
Literatura: Tom M. Mitchell, //Machine Learning//, Rozdział 2. | Literatura: Tom M. Mitchell, //Machine Learning//, [[http://www.cs.cmu.edu/afs/cs.cmu.edu/project/theo-20/www/mlbook/ch2.pdf|Rozdział 2]]. |
| |
Pliki do pobrania: {{:pl:dydaktyka:ml:concept-learning.zip|Contcept Learning}} | Pliki do pobrania: {{:pl:dydaktyka:ml:concept-learning.zip|Contcept Learning}} |
| |
===== Lista i opis plików ===== | ===== Lista i opis plików ===== |
Pliki oznaczone znakiem wykrzyknika (:!:) należy wypełnić własnym kodem | Pliki oznaczone znakiem wykrzyknika (:!:) należy wypełnić własnym kodem |
==== Używanie VS w trybie interaktywnym ==== | ==== Używanie VS w trybie interaktywnym ==== |
| |
<code> | <code prolog> |
?- ['vs']. | ?- ['vs']. |
?- ['taxonomy']. | ?- ['taxonomy']. |
| |
| |
<code> | <code prolog> |
?- vs. | ?- vs. |
Type the first positive example: | Type the first positive example: |
| |
| |
<code> | <code prolog> |
?- ['shapes']. | ?- ['shapes']. |
</code> | </code> |
Pierwszy przykład jest uznawany jako pozytywny ("p"). Wszystkie pozostałe uznawane są za negatywne ("n"). To znaczy, aby nauczyć program jakiegoś pojęcia, przykład z tego pojęcia musi znaleźć się jako pierwszy w pliku. | Pierwszy przykład jest uznawany jako pozytywny ("p"). Wszystkie pozostałe uznawane są za negatywne ("n"). To znaczy, aby nauczyć program jakiegoś pojęcia, przykład z tego pojęcia musi znaleźć się jako pierwszy w pliku. |
| |
<code> | <code prolog> |
?- batch. | ?- batch. |
+[red, square] | +[red, square] |
Poniżej przedstawiona została sytuacja pierwsza. | Poniżej przedstawiona została sytuacja pierwsza. |
| |
<code> | <code prolog> |
?- ['loandata']. | ?- ['loandata']. |
</code> | |
| |
<code> | |
?- batch. | ?- batch. |
+[yes, comp, f, no] | +[yes, comp, f, no] |
==== Niespójny zbiór danych (Wersja interaktywna)) ==== | ==== Niespójny zbiór danych (Wersja interaktywna)) ==== |
| |
<code> | <code prolog> |
?- vs. | ?- vs. |
Type the first positive example: | Type the first positive example: |
| |
| |
<code> | <code prolog> |
?- ['shapes']. | ?- ['shapes']. |
| |
| |
| |
<code> | <code prolog> |
?- ['animals']. | ?- ['animals']. |
| |
Algorytm //Candidate-Elimination// podaje wszystkie możliwe hipotezy pasujące do danego zbioru uczącego za pomocą dolnego G (najbardziej ogólnego ograniczenia zgodnego ze zbiorem uczącym) i górnego ograniczenia S (najbardziej szczegółowego ograniczenia zgodnego ze zbiorem uczącym): | Algorytm //Candidate-Elimination// podaje wszystkie możliwe hipotezy pasujące do danego zbioru uczącego za pomocą dolnego G (najbardziej ogólnego ograniczenia zgodnego ze zbiorem uczącym) i górnego ograniczenia S (najbardziej szczegółowego ograniczenia zgodnego ze zbiorem uczącym): |
| |
{{:pl:dydaktyka:ml:prv:cea.png|}} | {{:pl:dydaktyka:ml:cea.png|}} |
| |
Spróbuj zaimplementować algorytm //Candidate-Elimination// w Octave, bazując na instrukcjach: [[http://ai.ia.agh.edu.pl/wiki/_media/pl:prolog:prolog_lab:ml:zmv-ml-ch4.pdf|Instrukcje]] | Spróbuj zaimplementować algorytm //Candidate-Elimination// w Octave, bazując na instrukcjach: [[http://ai.ia.agh.edu.pl/wiki/_media/pl:prolog:prolog_lab:ml:zmv-ml-ch4.pdf|Instrukcje]] |
| |
| ===== Uwagi ===== |
| * Wzór określający //consistent// nie był dla wszystkich jasny |
| * Trzeba omówić działanie algorytmu //Find-S//, tłumacząc dokładnie co to jest hipoteza i jakie wartości mogą przyjmować jej parametry (co oznacza //more general value//) |
| * Nie wystarcza czasu żeby zrobić część z Prologu |
| |
| |