Różnice
Różnice między wybraną wersją a wersją aktualną.
Both sides previous revision
Poprzednia wersja
Nowa wersja
|
Poprzednia wersja
|
pl:dydaktyka:ml:lab4 [2013/02/26 10:45] esimon [Laboratorium 2 - Regresja Liniowa] |
pl:dydaktyka:ml:lab4 [2019/06/27 15:50] (aktualna) |
====== Laboratorium 4 - Regresja Liniowa ====== | ====== Laboratorium 4 - Regresja Liniowa ====== |
| Ćwiczenia bazujące na materiałach Andrew Ng.\\ |
| Przed zajęciami przejrzyj wykłady II-IV: [[https://class.coursera.org/ml/lecture/preview|Linear regression]] |
| |
{{:pl:dydaktyka:ml:ex1.pdf|Instrukcja}} w języku angielskim. | {{:pl:dydaktyka:ml:ex1.pdf|Instrukcja}} w języku angielskim. |
| |
| |
Funkcja kosztu dana jest wzorem: | Funkcja kosztu dana jest wzorem: |
$$J(\theta) = \frac{1}{2m}\sum\limits_{i=1}^m(H_{\theta}(x^{(i)}})-y^{(i)}})^2$$ | $$J(\theta) = \frac{1}{2m}\sum\limits_{i=1}^m(h_{\theta}(x^{(i)}})-y^{(i)}})^2$$ |
| |
Gdzie | Gdzie |
| |
Powinieneś otrzymać wartość podobną do tej wyznaczonej w przypadku algorytmu Gradient Descent. | Powinieneś otrzymać wartość podobną do tej wyznaczonej w przypadku algorytmu Gradient Descent. |
| ==== Uwagi ==== |
| Dużo materiału. Nie wszyscy zdążyli ze zrobieniem wszystkich zadań. Być może następnym razem opłacałoby się rozbicie tych lab na dwie części. |
| |
| |
| |
| |