Różnice

Różnice między wybraną wersją a wersją aktualną.

Odnośnik do tego porównania

Both sides previous revision Poprzednia wersja
Nowa wersja
Poprzednia wersja
pl:dydaktyka:ml:start [2015/03/03 12:43]
gjn
pl:dydaktyka:ml:start [2019/04/09 18:57] (aktualna)
esimon [Ramowy plan laboratorium]
Linia 1: Linia 1:
-====== Machine learning ​2015 ======+====== Machine learning ​2019 ======
 ===== Cele kursu ===== ===== Cele kursu =====
 Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\ Celem kursu jest przekazanie najistotniejszych wiadomości związanych z problemami i metodami uczenia maszynowego w wymiarze logicznym, geometrycznym i probabilistycznym.\\
 Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup. Kurs opiera się na usystematyzowanym przeglądzie podstawowych metod i algorytmów z poszczególnych grup.
 +W ramach wykładu i laboratorium staramy się również przedstawić szerszy kontekst eksploracji danych (ang. //​data-mining//​) z związanych z tymi zaganieniami narzędzi.
  
 ===== Podręczniki ===== ===== Podręczniki =====
Linia 18: Linia 19:
   * [FCA] [[http://​www.cs.ubc.ca/​~poole/​|D. Poole]], [[http://​www.cs.ubc.ca/​~mack|A. Mackworth]],​ //​[[http://​artint.info|Artificial Intelligence:​ Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://​artint.info/​html/​ArtInt.html|ONLINE]]**   * [FCA] [[http://​www.cs.ubc.ca/​~poole/​|D. Poole]], [[http://​www.cs.ubc.ca/​~mack|A. Mackworth]],​ //​[[http://​artint.info|Artificial Intelligence:​ Foundations of Computational Agents]]//, Cambridge University Press, 2010, **[[http://​artint.info/​html/​ArtInt.html|ONLINE]]**
  
-Źródła ​ćwiczeń:​ +Inspiracje do ćwiczeń ​i poszerzania wiedzy
-  * [ANG] [[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]] [[https://​www.coursera.org/​course/​ml|Coursera:​ Machine Learning]]+  * Coursera: ​[[https://​www.coursera.org/​specializations/​machine-learning|Machine learning specialization]
 +  * Coursera: ​[[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]] [[https://​www.coursera.org/​course/​ml|Coursera:​ Machine Learning]] 
 +  * Coursera: [[https://​www.coursera.org/​specializations/​jhu-data-science|Data Science specialization]]
   * [ZMV] [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]], //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//,​ oraz //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​mlprograms/​|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003.   * [ZMV] [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]], //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​MachineLearning.html|CS570 - Topics in AI: Machine Learning]]//,​ oraz //​[[http://​www.cs.ccsu.edu/​~markov/​ccsu_courses/​mlprograms/​|Machine Learning Programs and Laboratory Experiments in Prolog]]//, 2003.
- 
-Kursy on-line: 
   * [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], Data Mining with Weka: [[http://​wekamooc.blogspot.com/​]] [[https://​weka.waikato.ac.nz/​explorer]]   * [[http://​www.cs.waikato.ac.nz/​~ihw|Ian Witten]], Data Mining with Weka: [[http://​wekamooc.blogspot.com/​]] [[https://​weka.waikato.ac.nz/​explorer]]
-  * [[http://​www.cs.stanford.edu/​people/​ang/​|Andrew Ng]], Machine Learning: [[https://​www.coursera.org/​course/​ml]] 
  
 Varia: Varia:
Linia 30: Linia 30:
   * [[https://​archive.ics.uci.edu/​ml/​|UCI ML repo]]   * [[https://​archive.ics.uci.edu/​ml/​|UCI ML repo]]
   * [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]] and Daniel T. Larose [[http://​www.dataminingconsultant.com/​DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]]   * [[http://​www.cs.ccsu.edu/​~markov/​|Zdravko Markov]] and Daniel T. Larose [[http://​www.dataminingconsultant.com/​DMW.htm|Data Mining the Web: Uncovering Patterns in Web Content, Structure, and Usage]]
 +  * [[https://​www.lenwood.cc/​2014/​05/​13/​12-free-data-mining-books/​|14 Free (as in beer) Data Mining Books]]
 +
 +===== Ramowy plan wykładu 2019 =====
 +  - [GJN] Wstęp: organizacja zajęć, omówienie dziedziny. Wprowadzenie do o ML i DT: przykłady, problemy, pojęcia. Modele w uczeniu maszynowym, zadania uczenia
 +  - [GJN] Atrybuty i modele, wejście i wyjście w procesie DM
 +  - [GJN] Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means,
 +  - [SBK] Regresja liniowa
 +  - [SBK] Bias/​Variance
 +  - [SBK] Ridge regression
 +  - [GJN/SBK] Klasyfikacja i jej ewaluacja
 +  - [SBK] Regresja Logistyczna
 +  - [SBK] SVM
 +  - [SBK] Wybrane modele probabilistyczne
 +  - [GJN] Uczenie pojęć, reguł
 +  - [SBK] Drzewa decyzyjne
 +  - [SBK] Uczenie zestawów klasyfikatorów (ang. ensambles)
 +  - [SBK] Przegląd i podsumowanie
  
-===== Ramowy plan wykładu ​2015 ===== +===== Ramowy plan wykładu ​2018 ===== 
-  - Wstęp: organizacja zajęć, omówienie dziedziny, 2015-03-03 +  - [06.03.2018] ​Wstęp: organizacja zajęć, omówienie dziedzinyWprowadzenie do ML i DTprzykłady, problemy, pojęciaModele w uczeniu maszynowym, zadania uczenia 
-  - Wprowadzenie do ML i DTprzykłady, problemy, pojęcia, Weka [DMW:1], 2015-03-10 +  - [13.03.2018Atrybuty i modelewejście i wyjście w procesie DM 
-  - Modele w uczeniu maszynowym, zadania uczenia, klasyfikacja ​[FLA:1,2], 2015-03-17 +  ​[20.03.2018] Regresja liniowa 
-  - Zadania klasyfikacji:​ atrybuty, modele i ich użycie w Weka [DMW:2,3] i [FLA:3], 2015-03-24 +  - [27.03.2018Ridge regression ​Lasso 
-  - Uczenie pojęć i drzew decyzyjnych ​[FLA:4,5], [DMW:4], 2015-03-31, ​[[http://www.aispace.org/​dTree/​index.shtml|AIS:​Decision Trees]+  - [10.04.2018Klasyfikacja i jej ewaluacja 
-  - Kolokwium z lab, 2015-04-14  +  ​- [17.04.2018Regresja Logistyczna 
-  - Uczenie reguł decyzyjnych ​[FLA:6], [DMW:4+  - [24.04.2018] SVM 
-  - Repetytorium: ​[[mlrep1|części 1-3]] i [[mlrep2|części 4-6]] -oba na podstawie ​[[http://www.cs.bris.ac.uk/​~flach/​mlbook/​materials/​mlbook-beamer.pdf|slajdów z podręcznika PFlacha]+  - [08.05.2018Wybrane modele probabilistyczne 
-  - Wybrane modele liniowe ​[FLA:7], [DMW:4] regresja liniowa, perceptron, SVM, kernele, [[mlrep3|części 7-8]] +  - [15.05.2018Uczenie pojęć, reguł 
-  - Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means, ​dendogramy, [[mlrep3|części 7-8]] +  ​- [22.05.2018] Drzewa decyzyjne 
-  - Wybrane modele probabilistyczne ​[FCA] [[http://​artint.info/​html/​ArtInt_138.html|6]], [[http://​artint.info/​html/​ArtInt_196.html|7.8]] +  ​[29.05.2018Uczenie zestawów klasyfikatorów (ang. ensambles) 
-  - Systemy rekomendujące:​ [[http://​www.recommenderbook.net/​|Recommender Systems - An Introduction]],​ [[http://​www.recommenderbook.net/​teaching-material/​tutorial-slides|tutorial]] +  - [05.06.2018] Wybrane modele odległościowe [FLA:8]: sąsiedztwo,​ kNN, K-means, 
-  - Narzędzia ​do ML +  - [12.06.2018Wprowadzenie ​do Reinforcement learning 
-  - ML a IR: [[http://nlp.stanford.edu/​IR-book/​html/​htmledition/​irbook.html|Introduction to Information Retrieval]], [[http://​www.dcs.bbk.ac.uk/​~dell/​teaching/​ir/​|slajdy do kursu]] +  - [19.06.2018] Przegląd i podsumowanie
-  - Przegląd i podsumowanie+
  
  
 +Slajdy z wykładów:
 +  * [[http://​www.cs.bris.ac.uk/​~flach/​mlbook/​materials/​mlbook-beamer.pdf|FLA]]
 +  * [[http://​www.cs.waikato.ac.nz/​ml/​weka/​Slides3rdEd_Ch1-5.zip|DMW]] [[http://​www.cs.waikato.ac.nz/​ml/​weka/​Slides3rdEd_Ch6-6.zip|DMW]]
 +  * Podsumowanie:​ {{ :​pl:​dydaktyka:​ml:​summary-small.pdf |}}
 ===== Ramowy plan laboratorium ===== ===== Ramowy plan laboratorium =====
 Adres serwera: charon.kis.agh.edu.pl Adres serwera: charon.kis.agh.edu.pl
  
-  - [[.:lab1|Laboratorium 1]] - Wprowadzenie do Octave (2014-03-05) +  - [06.03.2018] ​[[.:2018lab1|Laboratorium 1]] - Wprowadzenie do środowiska pracy I 
-  - [[.:lab2|Laboratorium 2]] - Uczenie pojęć (2014-03-12) +  - [06.03.2018] ​[[.:2018lab1|Laboratorium 2]] - Wprowadzenie do środowiska pracy II 
-  - [[.:2014lab3|Laboratorium 3]] - Drzewa decyzyjne (2014-03-19) +  - [12.06.2018] ​[[.:2018lab10|Laboratorium 3]] - Klasteryzacja ​ 
-  - [[.:2014lab4|Laboratorium 4]] - Reguły asocjacyjne (2014-04-02) +  - [13.03.2018] ​[[.:2018lab2|Laboratorium 4]] - Regresja Liniowa I 
-  - **Kolokwium z lab 1-4** +  - [20.03.2018] ​[[.:2018lab2|Laboratorium 5]] - Regresja Liniowa ​II 
-  - [[.:lab4|Laboratorium 5]] - Regresja Liniowa ​(2014-04-09) +  - [27.03.2018] ​[[.:2018lab3|Laboratorium 6]] - Ridge i Lasso 
-  - [[.:lab5|Laboratorium 6]] - Regresja Logistyczna (2014-04-16) +  - [10.04.2018] ​[[.:2018lab4|Laboratorium 7]] - Regresja logistyczna I 
-  - [[.:lab6|Laboratorium 7]] - Sztuczne sieci neuronowe (2014-04-23) +  - [10.04.2018] ​[[.:2018lab4|Laboratorium 8]] - Regresja logistyczna II 
-  - [[.:lab6|Laboratorium 8]] - Sztuczne sieci neuronowe (2014-04-30) +  - [17.04.2018] ​[[.:2018lab5|Laboratorium ​8]] - Support Vector Machine I 
-  - [[.:lab8|Laboratorium ​9]] - Bias/​Variance (2014-05-07) +  - [24.04.2018] [[.:2018lab5|Laboratorium ​9]] - Support Vector ​Machine II 
-  - **Kolokwium z lab 5-9** - wykład 13.05.2014 +  ​[08.05.2018] Kolokwium I 
-  - [[.:lab9|Laboratorium ​10]] - Support Vector ​Machines (2014-05-14) +  - [15.05.2018] ​[[.:2018lab6|Laboratorium ​10]] - Modele probabilistyczne I 
-  - [[.:lab10|Laboratorium ​11]] - Klasteryzacja (2014-05-21) +  - [22.05.2018] ​[[.:2018lab7|Laboratorium ​11]] - Szeregi czasowe * 
-  - [[.:lab11|Laboratorium ​12]] - Systemy rekomendacyjne i detekcja anomalii ​ +  - [29.05.2018] ​[[.:2018lab8|Laboratorium ​12]] - Drzewa decyzyjne 
-  - [[.:lab12|Laboratorium ​13]] - Sieci Bayesowskie - wprowadzenie ​ +  - [05.06.2018] ​[[.:2018lab9|Laboratorium ​13]] - Reguły asocjacyjne ​*
-  - [[.:lab13|Laboratorium ​14]] - Sieci Bayesowskie ​  +
-  - **Kolokwium z lab 10-14*+
  
 +  - [19.06.2018] Kolokwium II
 ===== Egzamin ===== ===== Egzamin =====
   * I Termin: TBA   * I Termin: TBA
pl/dydaktyka/ml/start.1425386617.txt.gz · ostatnio zmienione: 2017/07/16 23:25 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0