====== Machine learning 2019 ====== ===== Cele kursu ===== Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\ Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup. W ramach wykładu i laboratorium staramy się również przedstawić szerszy kontekst eksploracji danych (ang. //data-mining//) z związanych z tymi zaganieniami narzędzi. ===== Podręczniki ===== * [FLA] [[http://www.cs.bris.ac.uk/~flach|Peter Flach]] //[[http://www.cs.bris.ac.uk/~flach/mlbook/|Machine Learning. The Art and Science of Algorithms that Make Sense of Data]]//, Cambridge University Press, 2012. * [DMW] [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], [[http://www.cs.waikato.ac.nz/~eibe|Eibe Frank]], [[http://www.linkedin.com/in/mahall|Mark Hall]], //[[http://www.cs.waikato.ac.nz/ml/weka/book.html|Data Mining: Practical Machine Learning Tools and Techniques]]//, 3rd edition, Morgan Kaufmann Publishers, 2011 Uzupełniająco: * [TML] [[http://www.cs.cmu.edu/~tom/|T. Mitchell]], //[[http://www.cs.cmu.edu/~tom/mlbook.html|Machine Learning]]//, McGraw Hill, 1997. * [CMB] [[http://research.microsoft.com/en-us/um/people/cmbishop/|Christopher M. Bishop]] //[[http://research.microsoft.com/en-us/um/people/cmbishop/prml/|Pattern Recognition and Machine Learning]]//, Springer, 2007. * [CIH] [[http://www.ise.pw.edu.pl/~cichosz|Paweł Cichosz]], //[[http://www.ise.pw.edu.pl/~cichosz/SU/|Systemy uczące się]]//, WNT, 2000. * [KDA] [[http://www.cioslab.vcu.edu/index.html|Krzysztof Cios]] et al. //[[http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-0-387-33333-5|Data Mining A Knowledge Discovery Approach]]//, Springer, 2007 [[http://www.cioslab.vcu.edu/Publications/DMBook/DMBook_Materials.htm|slajdy]] * [RSI] [[http://www.recommenderbook.net/|Recommender Systems - An Introduction]], [[http://www.recommenderbook.net/teaching-material/tutorial-slides|tutorial]] * [IIR] [[http://nlp.stanford.edu/IR-book/html/htmledition/irbook.html|Introduction to Information Retrieval]], [[http://www.dcs.bbk.ac.uk/~dell/teaching/ir/|slajdy do kursu]] * [FCA] [[http://www.cs.ubc.ca/~poole/|D. Poole]], [[http://www.cs.ubc.ca/~mack|A. Mackworth]], //[[http://artint.info|Artificial Intelligence: Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://artint.info/html/ArtInt.html|ONLINE]]** Inspiracje do ćwiczeń i poszerzania wiedzy: * Coursera: [[https://www.coursera.org/specializations/machine-learning|Machine learning specialization]] * Coursera: [[http://www.cs.stanford.edu/people/ang/|Andrew Ng]] [[https://www.coursera.org/course/ml|Coursera: Machine Learning]] * Coursera: [[https://www.coursera.org/specializations/jhu-data-science|Data Science specialization]] * [ZMV] [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]], //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//, oraz //[[http://www.cs.ccsu.edu/~markov/ccsu_courses/mlprograms/|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003. * [[http://www.cs.waikato.ac.nz/~ihw|Ian Witten]], Data Mining with Weka: [[http://wekamooc.blogspot.com/]] [[https://weka.waikato.ac.nz/explorer]] Varia: * [[http://www.cs.waikato.ac.nz/ml/weka/|WEKA]] * [[https://archive.ics.uci.edu/ml/|UCI ML repo]] * [[http://www.cs.ccsu.edu/~markov/|Zdravko Markov]] and Daniel T. Larose [[http://www.dataminingconsultant.com/DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]] * [[https://www.lenwood.cc/2014/05/13/12-free-data-mining-books/|14 Free (as in beer) Data Mining Books]] ===== Ramowy plan wykładu 2019 ===== - [GJN] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia - [GJN] Atrybuty i modele, wejście i wyjście w procesie DM - [GJN] Wybrane modele odległościowe [FLA:8]: sąsiedztwo, kNN, K-means, - [SBK] Regresja liniowa - [SBK] Bias/Variance - [SBK] Ridge regression - [GJN/SBK] Klasyfikacja i jej ewaluacja - [SBK] Regresja Logistyczna - [SBK] SVM - [SBK] Wybrane modele probabilistyczne - [GJN] Uczenie pojęć, reguł - [SBK] Drzewa decyzyjne - [SBK] Uczenie zestawów klasyfikatorów (ang. ensambles) - [SBK] Przegląd i podsumowanie ===== Ramowy plan wykładu 2018 ===== - [06.03.2018] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia - [13.03.2018] Atrybuty i modele, wejście i wyjście w procesie DM - [20.03.2018] Regresja liniowa - [27.03.2018] Ridge regression i Lasso - [10.04.2018] Klasyfikacja i jej ewaluacja - [17.04.2018] Regresja Logistyczna - [24.04.2018] SVM - [08.05.2018] Wybrane modele probabilistyczne - [15.05.2018] Uczenie pojęć, reguł - [22.05.2018] Drzewa decyzyjne - [29.05.2018] Uczenie zestawów klasyfikatorów (ang. ensambles) - [05.06.2018] Wybrane modele odległościowe [FLA:8]: sąsiedztwo, kNN, K-means, - [12.06.2018] Wprowadzenie do Reinforcement learning - [19.06.2018] Przegląd i podsumowanie Slajdy z wykładów: * [[http://www.cs.bris.ac.uk/~flach/mlbook/materials/mlbook-beamer.pdf|FLA]] * [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch1-5.zip|DMW]] [[http://www.cs.waikato.ac.nz/ml/weka/Slides3rdEd_Ch6-6.zip|DMW]] * Podsumowanie: {{ :pl:dydaktyka:ml:summary-small.pdf |}} ===== Ramowy plan laboratorium ===== Adres serwera: charon.kis.agh.edu.pl - [06.03.2018] [[.:2018lab1|Laboratorium 1]] - Wprowadzenie do środowiska pracy I - [06.03.2018] [[.:2018lab1|Laboratorium 2]] - Wprowadzenie do środowiska pracy II - [12.06.2018] [[.:2018lab10|Laboratorium 3]] - Klasteryzacja - [13.03.2018] [[.:2018lab2|Laboratorium 4]] - Regresja Liniowa I - [20.03.2018] [[.:2018lab2|Laboratorium 5]] - Regresja Liniowa II - [27.03.2018] [[.:2018lab3|Laboratorium 6]] - Ridge i Lasso - [10.04.2018] [[.:2018lab4|Laboratorium 7]] - Regresja logistyczna I - [10.04.2018] [[.:2018lab4|Laboratorium 8]] - Regresja logistyczna II - [17.04.2018] [[.:2018lab5|Laboratorium 8]] - Support Vector Machine I - [24.04.2018] [[.:2018lab5|Laboratorium 9]] - Support Vector Machine II - [08.05.2018] Kolokwium I - [15.05.2018] [[.:2018lab6|Laboratorium 10]] - Modele probabilistyczne I - [22.05.2018] [[.:2018lab7|Laboratorium 11]] - Szeregi czasowe * - [29.05.2018] [[.:2018lab8|Laboratorium 12]] - Drzewa decyzyjne - [05.06.2018] [[.:2018lab9|Laboratorium 13]] - Reguły asocjacyjne * - [19.06.2018] Kolokwium II ===== Egzamin ===== * I Termin: TBA * II Termin: TBA * III Termin: TBA sala : TBA