Różnice

Różnice między wybraną wersją a wersją aktualną.

Odnośnik do tego porównania

Both sides previous revision Poprzednia wersja
Nowa wersja
Poprzednia wersja
pl:dydaktyka:ml:start [2014/04/09 09:52]
gjn [Ramowy plan wykładu 2014]
pl:dydaktyka:ml:start [2019/06/27 15:50] (aktualna)
Linia 1: Linia 1:
-====== Machine learning ​2014 ======+====== Machine learning ​2019 ======
 ===== Cele kursu ===== ===== Cele kursu =====
 Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\ Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\
 Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup. Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup.
 +W ramach wykładu i laboratorium staramy się również przedstawić szerszy kontekst eksploracji danych (ang. //​data-mining//​) z związanych z tymi zaganieniami narzędzi.
  
 ===== Podręczniki ===== ===== Podręczniki =====
Linia 8: Linia 9:
   * [DMW] [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], [[http://​www.cs.waikato.ac.nz/​~eibe|Eibe Frank]], [[http://​www.linkedin.com/​in/​mahall|Mark Hall]], //​[[http://​www.cs.waikato.ac.nz/​ml/​weka/​book.html|Data Mining:   * [DMW] [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], [[http://​www.cs.waikato.ac.nz/​~eibe|Eibe Frank]], [[http://​www.linkedin.com/​in/​mahall|Mark Hall]], //​[[http://​www.cs.waikato.ac.nz/​ml/​weka/​book.html|Data Mining:
 Practical Machine Learning Tools and Techniques]]//,​ 3rd edition, Morgan Kaufmann Publishers, 2011 Practical Machine Learning Tools and Techniques]]//,​ 3rd edition, Morgan Kaufmann Publishers, 2011
-  * [TML] [[http://​www.cs.cmu.edu/​~tom/​|T. Mitchell]], //​[[http://​www.cs.cmu.edu/​~tom/​mlbook.html|Machine Learning]]//,​ McGraw Hill, 1997. 
  
 Uzupełniająco:​ Uzupełniająco:​
 +  * [TML] [[http://​www.cs.cmu.edu/​~tom/​|T. Mitchell]], //​[[http://​www.cs.cmu.edu/​~tom/​mlbook.html|Machine Learning]]//,​ McGraw Hill, 1997.
   * [CMB] [[http://​research.microsoft.com/​en-us/​um/​people/​cmbishop/​|Christopher M. Bishop]] //​[[http://​research.microsoft.com/​en-us/​um/​people/​cmbishop/​prml/​|Pattern Recognition and Machine Learning]]//,​ Springer, 2007.   * [CMB] [[http://​research.microsoft.com/​en-us/​um/​people/​cmbishop/​|Christopher M. Bishop]] //​[[http://​research.microsoft.com/​en-us/​um/​people/​cmbishop/​prml/​|Pattern Recognition and Machine Learning]]//,​ Springer, 2007.
   * [CIH] [[http://​www.ise.pw.edu.pl/​~cichosz|Paweł Cichosz]], //​[[http://​www.ise.pw.edu.pl/​~cichosz/​SU/​|Systemy uczące się]]//, WNT, 2000.   * [CIH] [[http://​www.ise.pw.edu.pl/​~cichosz|Paweł Cichosz]], //​[[http://​www.ise.pw.edu.pl/​~cichosz/​SU/​|Systemy uczące się]]//, WNT, 2000.
Linia 18: Linia 19:
   * [FCA] [[http://​www.cs.ubc.ca/​~poole/​|D. Poole]], [[http://​www.cs.ubc.ca/​~mack|A. Mackworth]],​ //​[[http://​artint.info|Artificial Intelligence:​ Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://​artint.info/​html/​ArtInt.html|ONLINE]]**   * [FCA] [[http://​www.cs.ubc.ca/​~poole/​|D. Poole]], [[http://​www.cs.ubc.ca/​~mack|A. Mackworth]],​ //​[[http://​artint.info|Artificial Intelligence:​ Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://​artint.info/​html/​ArtInt.html|ONLINE]]**
  
-Źródła ​ćwiczeń:​ +Inspiracje do ćwiczeń ​i poszerzania wiedzy
-  * [ANG] [[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]] [[https://​www.coursera.org/​course/​ml|Coursera:​ Machine Learning]]+  * Coursera: ​[[https://​www.coursera.org/​specializations/​machine-learning|Machine learning specialization]
 +  * Coursera: ​[[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]] [[https://​www.coursera.org/​course/​ml|Coursera:​ Machine Learning]] 
 +  * Coursera: [[https://​www.coursera.org/​specializations/​jhu-data-science|Data Science specialization]]
   * [ZMV] [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]], //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//,​ oraz //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​mlprograms/​|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003.   * [ZMV] [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]], //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//,​ oraz //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​mlprograms/​|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003.
- 
-Kursy on-line: 
   * [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], Data Mining with Weka: [[http://​wekamooc.blogspot.com/​]] [[https://​weka.waikato.ac.nz/​explorer]]   * [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], Data Mining with Weka: [[http://​wekamooc.blogspot.com/​]] [[https://​weka.waikato.ac.nz/​explorer]]
-  * [[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]], Machine Learning: [[https://​www.coursera.org/​course/​ml]] 
  
 Varia: Varia:
Linia 30: Linia 30:
   * [[https://​archive.ics.uci.edu/​ml/​|UCI ML repo]]   * [[https://​archive.ics.uci.edu/​ml/​|UCI ML repo]]
   * [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]] and Daniel T. Larose [[http://​www.dataminingconsultant.com/​DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]]   * [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]] and Daniel T. Larose [[http://​www.dataminingconsultant.com/​DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]]
 +  * [[https://​www.lenwood.cc/​2014/​05/​13/​12-free-data-mining-books/​|14 Free (as in beer) Data Mining Books]]
 +
 +===== Ramowy plan wykładu 2019 =====
 +  - [GJN] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia
 +  - [GJN] Atrybuty i modele, wejście i wyjście w procesie DM
 +  - [GJN] Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means,
 +  - [SBK] Regresja liniowa
 +  - [SBK] Bias/​Variance
 +  - [SBK] Ridge regression
 +  - [GJN/SBK] Klasyfikacja i jej ewaluacja
 +  - [SBK] Regresja Logistyczna
 +  - [SBK] SVM
 +  - [SBK] Wybrane modele probabilistyczne
 +  - [GJN] Uczenie pojęć, reguł
 +  - [SBK] Drzewa decyzyjne
 +  - [SBK] Uczenie zestawów klasyfikatorów (ang. ensambles)
 +  - [SBK] Przegląd i podsumowanie
  
-===== Ramowy plan wykładu ​2014 ===== +===== Ramowy plan wykładu ​2018 ===== 
-  - Wstęp: organizacja zajęć, omówienie dziedziny, 2014-03-04 +  - [06.03.2018] ​Wstęp: organizacja zajęć, omówienie dziedzinyWprowadzenie do ML i DTprzykłady, problemy, pojęciaModele w uczeniu maszynowym, zadania uczenia 
-  - Wprowadzenie do ML i DTprzykłady, problemy, pojęcia, Weka [DMW:1], 2014-03-11 +  - [13.03.2018Atrybuty i modelewejście i wyjście w procesie DM 
-  - Modele w uczeniu maszynowym, zadania uczenia, klasyfikacja ​[FLA:1,2], 2014-03-18 +  ​[20.03.2018] Regresja liniowa 
-  - Zadania klasyfikacji:​ atrybuty, modele i ich użycie w Weka [DMW:2,3] i [FLA:3], 2014-03-25 +  - [27.03.2018Ridge regression ​Lasso 
-  - Uczenie pojęć i drzew decyzyjnych ​[FLA:4,5], [DMW:4], 2014-04-08, ​[[http://www.aispace.org/​dTree/​index.shtml|AIS:​Decision Trees]+  - [10.04.2018Klasyfikacja i jej ewaluacja 
-  - Uczenie reguł decyzyjnych ​[FLA:6], [DMW:4], 2014-04-15 +  - [17.04.2018Regresja Logistyczna 
-  - Repetytorium: ​[[mlrep1|części 1-3]] i [[mlrep2|części 4-6]] -oba na podstawie ​[[http://www.cs.bris.ac.uk/​~flach/​mlbook/​materials/​mlbook-beamer.pdf|slajdów z podręcznika P. Flacha]], 2014-04-29 +  ​- [24.04.2018SVM 
-  - Kolokwium z lab, 2014-04-29  +  - [08.05.2018Wybrane modele probabilistyczne 
-  - Wybrane modele liniowe ​[FLA:7], [DMW:4] regresja liniowa, perceptron, SVM, kernele, [[mlrep3|części 7-8]], 2014-05-06 +  - [15.05.2018Uczenie pojęć, reguł 
-  - Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means, ​dendogramy, [[mlrep3|części 7-8]], 2014-05-13 +  ​- [22.05.2018Drzewa decyzyjne 
-  - Wybrane modele probabilistyczne ​[FCA] [[http://​artint.info/​html/​ArtInt_138.html|6]], [[http://​artint.info/​html/​ArtInt_196.html|7.8]],​ 2014-05-20 +  - [29.05.2018] Uczenie zestawów klasyfikatorów (ang. ensambles) 
-  - Systemy rekomendujące:​ [[http://​www.recommenderbook.net/​|Recommender Systems - An Introduction]],​ [[http://​www.recommenderbook.net/​teaching-material/​tutorial-slides|tutorial]],​ 2014-05-27 +  - [05.06.2018] ​Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means, 
-  - Narzędzia ​do ML +  - [12.06.2018Wprowadzenie ​do Reinforcement learning 
-  - ML a IR: [[http://nlp.stanford.edu/​IR-book/​html/​htmledition/​irbook.html|Introduction to Information Retrieval]], [[http://​www.dcs.bbk.ac.uk/​~dell/​teaching/​ir/​|slajdy do kursu]], 2014-06-03 +  - [19.06.2018] Przegląd i podsumowanie
-  - Przegląd i podsumowanie, 2014-06-10 +
-  - Wykład zaproszony+
  
  
 +Slajdy z wykładów:
 +  * [[http://​www.cs.bris.ac.uk/​~flach/​mlbook/​materials/​mlbook-beamer.pdf|FLA]]
 +  * [[http://​www.cs.waikato.ac.nz/​ml/​weka/​Slides3rdEd_Ch1-5.zip|DMW]] [[http://​www.cs.waikato.ac.nz/​ml/​weka/​Slides3rdEd_Ch6-6.zip|DMW]]
 +  * Podsumowanie:​ {{ :​pl:​dydaktyka:​ml:​summary-small.pdf |}}
 ===== Ramowy plan laboratorium ===== ===== Ramowy plan laboratorium =====
 Adres serwera: charon.kis.agh.edu.pl Adres serwera: charon.kis.agh.edu.pl
  
-  - [[.:lab1|Laboratorium 1]] - Wprowadzenie do Octave (2014-03-05) +  - [06.03.2018] ​[[.:2018lab1|Laboratorium 1]] - Wprowadzenie do środowiska pracy I 
-  - [[.:lab2|Laboratorium 2]] - Uczenie pojęć (2014-03-12) +  - [06.03.2018] ​[[.:2018lab1|Laboratorium 2]] - Wprowadzenie do środowiska pracy II 
-  - [[.:2014lab3|Laboratorium 3]] - Drzewa decyzyjne (2014-03-19) +  - [12.06.2018] ​[[.:2018lab10|Laboratorium 3]] - Klasteryzacja ​ 
-  - [[.:2014lab4|Laboratorium 4]] - Reguły asocjacyjne (2014-04-02) +  - [13.03.2018] ​[[.:2018lab2|Laboratorium 4]] - Regresja Liniowa I 
-  - [[.:lab4|Laboratorium 5]] - Regresja Liniowa ​(2014-04-09) +  - [20.03.2018] ​[[.:2018lab2|Laboratorium 5]] - Regresja Liniowa ​II 
-  - [[.:lab5|Laboratorium 6]] - Regresja Logistyczna ​ +  - [27.03.2018] ​[[.:2018lab3|Laboratorium 6]] - Ridge i Lasso 
-  - [[.:lab6|Laboratorium 7]] - Sztuczne sieci neuronowe ​ +  - [10.04.2018] ​[[.:2018lab4|Laboratorium 7]] - Regresja logistyczna I 
-  - [[.:lab6|Laboratorium 8]] - Sztuczne sieci neuronowe ​ +  - [10.04.2018] ​[[.:2018lab4|Laboratorium 8]] - Regresja logistyczna II 
-  - [[.:lab8|Laboratorium ​9]] - Bias/​Variance ​ +  - [17.04.2018] ​[[.:2018lab5|Laboratorium ​8]] - Support Vector Machine I 
-  - [[.:lab9|Laboratorium ​10]] - Support Vector ​Machines +  - [24.04.2018] ​[[.:2018lab5|Laboratorium ​9]] - Support Vector ​Machine II 
-  - [[.:lab10|Laboratorium ​11]] - Klasteryzacja +  - [08.05.2018] Kolokwium I 
-  - [[.:lab11|Laboratorium ​12]] - Systemy rekomendacyjne i detekcja anomalii ​ +  - [15.05.2018] ​[[.:2018lab6|Laboratorium ​10]] - Modele probabilistyczne I 
-  - [[.:lab12|Laboratorium ​13]] - Sieci Bayesowskie - wprowadzenie ​ +  - [22.05.2018] ​[[.:2018lab7|Laboratorium ​11]] - Szeregi czasowe * 
-  - [[.:lab13|Laboratorium ​14]] - Sieci Bayesowskie ​  +  - [29.05.2018] ​[[.:2018lab8|Laboratorium ​12]] - Drzewa decyzyjne 
-  - **Kolokwium z laboratoriów 8-13*+  - [05.06.2018] ​[[.:2018lab9|Laboratorium ​13]] - Reguły asocjacyjne ​*
  
 +  - [19.06.2018] Kolokwium II
 ===== Egzamin ===== ===== Egzamin =====
-  * I Termin:  +  * I Termin: ​TBA 
-  * II Termin:  +  * II Termin: ​TBA 
-  * III Termin: ​+  * III Termin: ​TBA 
 +sala : TBA
  
pl/dydaktyka/ml/start.1397029939.txt.gz · ostatnio zmienione: 2019/06/27 15:54 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0