Both sides previous revision
Poprzednia wersja
Nowa wersja
|
Poprzednia wersja
Nowa wersja
Both sides next revision
|
pl:dydaktyka:ml:start [2016/03/22 13:37] gjn [Ramowy plan wykładu 2016] |
pl:dydaktyka:ml:start [2019/03/12 12:13] esimon [Ramowy plan laboratorium] |
====== Machine learning 2016 ====== | ====== Machine learning 2019 ====== |
===== Cele kursu ===== | ===== Cele kursu ===== |
Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\ | Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\ |
Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup. | Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup. |
| W ramach wykładu i laboratorium staramy się również przedstawić szerszy kontekst eksploracji danych (ang. //data-mining//) z związanych z tymi zaganieniami narzędzi. |
| |
===== Podręczniki ===== | ===== Podręczniki ===== |
* [FCA] [[http://www.cs.ubc.ca/~poole/|D. Poole]], [[http://www.cs.ubc.ca/~mack|A. Mackworth]], //[[http://artint.info|Artificial Intelligence: Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://artint.info/html/ArtInt.html|ONLINE]]** | * [FCA] [[http://www.cs.ubc.ca/~poole/|D. Poole]], [[http://www.cs.ubc.ca/~mack|A. Mackworth]], //[[http://artint.info|Artificial Intelligence: Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://artint.info/html/ArtInt.html|ONLINE]]** |
| |
Źródła ćwiczeń: | Inspiracje do ćwiczeń i poszerzania wiedzy: |
* [ANG] [[http://www.cs.stanford.edu/people/ang/|Andrew Ng]] [[https://www.coursera.org/course/ml|Coursera: Machine Learning]] | * Coursera: [[https://www.coursera.org/specializations/machine-learning|Machine learning specialization]] |
| * Coursera: [[http://www.cs.stanford.edu/people/ang/|Andrew Ng]] [[https://www.coursera.org/course/ml|Coursera: Machine Learning]] |
| * Coursera: [[https://www.coursera.org/specializations/jhu-data-science|Data Science specialization]] |
* [ZMV] [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]], //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//, oraz //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/mlprograms/|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003. | * [ZMV] [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]], //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//, oraz //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/mlprograms/|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003. |
| |
Kursy on-line: | |
* [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], Data Mining with Weka: [[http://wekamooc.blogspot.com/]] [[https://weka.waikato.ac.nz/explorer]] | * [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], Data Mining with Weka: [[http://wekamooc.blogspot.com/]] [[https://weka.waikato.ac.nz/explorer]] |
* [[http://www.cs.stanford.edu/people/ang/|Andrew Ng]], Machine Learning: [[https://www.coursera.org/course/ml]] | |
| |
Varia: | Varia: |
* [[https://www.lenwood.cc/2014/05/13/12-free-data-mining-books/|14 Free (as in beer) Data Mining Books]] | * [[https://www.lenwood.cc/2014/05/13/12-free-data-mining-books/|14 Free (as in beer) Data Mining Books]] |
| |
===== Ramowy plan wykładu 2016 ===== | ===== Ramowy plan wykładu 2019 ===== |
- Wstęp: organizacja zajęć, omówienie dziedziny | - [GJN] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia |
- Wprowadzenie do ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia [FLA:0,1] 2016-03-01 | - [GJN] Atrybuty i modele, wejście i wyjście w procesie DM |
- Atrybuty i modele, wejście i wyjście w procesie DM [DMW:2,3], 2016-03-08 | - [GJN] Wybrane modele odległościowe [FLA:8]: sąsiedztwo, kNN, K-means, |
- Klasyfikacja i jej ewaluacja [FLA:2] 2016-03-22 | - [SBK] Regresja liniowa |
- Kolokwium z lab (Uczenie pojęć,) 2016-04-05 | - [SBK] Bias/Variance |
- Uczenie pojęć, drzew decyzyjnych i reguł [FLA:4,5,6], [DMW:4] 2016-04-12 | - [SBK] Ridge regression |
- Wybrane modele liniowe [FLA:7], [DMW:4] regresja liniowa, perceptron, SVM, kernele, [[mlrep3|części 7-8]] 2016-04-19 | - [GJN/SBK] Klasyfikacja i jej ewaluacja |
- Wybrane modele odległościowe [FLA:8]: sąsiedztwo, kNN, K-means, dendogramy, [[mlrep3|części 7-8]] | - [SBK] Regresja Logistyczna |
- Repetytorium: [[mlrep1|części 1-3]] i [[mlrep2|części 4-6]] [[mlrep3|części 7-8]] -- na podstawie [[http://www.cs.bris.ac.uk/~flach/mlbook/materials/mlbook-beamer.pdf|slajdów z podręcznika P. Flacha]] 2016-04-26 | - [SBK] SVM |
- Wybrane modele probabilistyczne [FCA] [[http://artint.info/html/ArtInt_138.html|6]], [[http://artint.info/html/ArtInt_196.html|7.8]] | - [SBK] Wybrane modele probabilistyczne |
- Systemy rekomendujące: [[http://www.recommenderbook.net/|Recommender Systems - An Introduction]], [[http://www.recommenderbook.net/teaching-material/tutorial-slides|tutorial]] | - [GJN] Uczenie pojęć, reguł |
- Narzędzia do ML | - [SBK] Drzewa decyzyjne |
- ML a IR: [[http://nlp.stanford.edu/IR-book/html/htmledition/irbook.html|Introduction to Information Retrieval]], [[http://www.dcs.bbk.ac.uk/~dell/teaching/ir/|slajdy do kursu]] | - [SBK] Uczenie zestawów klasyfikatorów (ang. ensambles) |
- Przegląd i podsumowanie | - [SBK] Przegląd i podsumowanie |
| |
| ===== Ramowy plan wykładu 2018 ===== |
| - [06.03.2018] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia |
| - [13.03.2018] Atrybuty i modele, wejście i wyjście w procesie DM |
| - [20.03.2018] Regresja liniowa |
| - [27.03.2018] Ridge regression i Lasso |
| - [10.04.2018] Klasyfikacja i jej ewaluacja |
| - [17.04.2018] Regresja Logistyczna |
| - [24.04.2018] SVM |
| - [08.05.2018] Wybrane modele probabilistyczne |
| - [15.05.2018] Uczenie pojęć, reguł |
| - [22.05.2018] Drzewa decyzyjne |
| - [29.05.2018] Uczenie zestawów klasyfikatorów (ang. ensambles) |
| - [05.06.2018] Wybrane modele odległościowe [FLA:8]: sąsiedztwo, kNN, K-means, |
| - [12.06.2018] Wprowadzenie do Reinforcement learning |
| - [19.06.2018] Przegląd i podsumowanie |
| |
Slajdy z wykładów: | Slajdy z wykładów: |
* [[http://www.cs.bris.ac.uk/~flach/mlbook/materials/mlbook-beamer.pdf|FLA]] | * [[http://www.cs.bris.ac.uk/~flach/mlbook/materials/mlbook-beamer.pdf|FLA]] |
* [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch1-5.zip|DMW]] [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch6-6.zip|DMW]] | * [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch1-5.zip|DMW]] [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch6-6.zip|DMW]] |
| * Podsumowanie: {{ :pl:dydaktyka:ml:summary-small.pdf |}} |
===== Ramowy plan laboratorium ===== | ===== Ramowy plan laboratorium ===== |
Adres serwera: charon.kis.agh.edu.pl | Adres serwera: charon.kis.agh.edu.pl |
| |
- [[.:lab1|Laboratorium 1]] - Wprowadzenie do Octave () | - [06.03.2018] [[.:2018lab1|Laboratorium 1]] - Wprowadzenie do środowiska pracy I |
- [[.:lab2|Laboratorium 2]] - Uczenie pojęć () | - [06.03.2018] [[.:2018lab1|Laboratorium 2]] - Wprowadzenie do środowiska pracy II |
- [[.:2014lab3|Laboratorium 3]] - Drzewa decyzyjne | - [12.06.2018] [[.:2018lab10|Laboratorium 3]] - Klasteryzacja |
- [[.:2014lab4|Laboratorium 4]] - Reguły asocjacyjne | - [13.03.2018] [[.:2018lab2|Laboratorium 4]] - Regresja Liniowa I |
- **Kolokwium z lab 1-4** - wykład | - [20.03.2018] [[.:2018lab2|Laboratorium 5]] - Regresja Liniowa II |
- [[.:lab4|Laboratorium 5]] - Regresja Liniowa | - [27.03.2018] [[.:2018lab3|Laboratorium 6]] - Ridge i Lasso |
- [[.:lab5|Laboratorium 6]] - Regresja Logistyczna | - [10.04.2018] [[.:2018lab4|Laboratorium 7]] - Regresja logistyczna |
- [[.:lab6|Laboratorium 7]] - Sztuczne sieci neuronowe | - [17.04.2018] [[.:2018lab5|Laboratorium 8]] - Support Vector Machine I |
- [[.:lab6|Laboratorium 8]] - Sztuczne sieci neuronowe | - [24.04.2018] [[.:2018lab5|Laboratorium 9]] - Support Vector Machine II |
- [[.:lab8|Laboratorium 9]] - Bias/Variance | - [08.05.2018] Kolokwium I |
- **Kolokwium z lab 5-9** | - [15.05.2018] [[.:2018lab6|Laboratorium 10]] - Modele probabilistyczne I |
- [[.:lab9|Laboratorium 10]] - Support Vector Machines | - [22.05.2018] [[.:2018lab7|Laboratorium 11]] - Szeregi czasowe * |
- [[.:lab10|Laboratorium 11]] - Klasteryzacja | - [29.05.2018] [[.:2018lab8|Laboratorium 12]] - Drzewa decyzyjne |
- [[.:lab11|Laboratorium 12]] - Systemy rekomendacyjne i detekcja anomalii | - [05.06.2018] [[.:2018lab9|Laboratorium 13]] - Reguły asocjacyjne * |
- [[.:lab12|Laboratorium 13]] - Sieci Bayesowskie - wprowadzenie | |
- [[.:lab13|Laboratorium 14]] - Sieci Bayesowskie | |
- **Kolokwium z lab 10-14** | |
| |
| - [19.06.2018] Kolokwium II |
===== Egzamin ===== | ===== Egzamin ===== |
* I Termin: TBA | * I Termin: TBA |