====== Laboratorium 4 - Regresja Liniowa ======
Ćwiczenia bazujące na materiałach Andrew Ng.\\
Przed zajęciami przejrzyj wykłady II-IV: [[https://class.coursera.org/ml/lecture/preview|Linear regression]]
{{:pl:dydaktyka:ml:ex1.pdf|Instrukcja}} w języku angielskim.
Ćwiczenia do pobrania: {{:pl:dydaktyka:ml:ex1.zip|Regresja Liniowa}}
===== Lista i opis plików =====
Pliki oznaczone znakiem wykrzyknika (:!:) należy wypełnić własnym kodem
* //ex1.m// - Skrypt Octave, który pomaga w przejściu pierwszej części laboratorium
* //ex1_multi.m// - Skrypt Octave, który pomaga w przejściu pierwszej części laboratorium
* :!: //warmUpExercise.m// - Ćwiczenie rozgrzewkowe
* :!: //plotData.m// - Funkcja rysująca wykres
* :!: //computeCost.m// - Funkcja kosztu dla regresji liniowej
* :!: //gradientDescent.m// - Funkcja uruchamiająca algorytm //Gradient Descent//
* :!: //computeCostMulti.m// - Funkcja kosztu dla regresji liniowej dla przypadku wielowymiarowego
* :!: //gradientDescentMulti.m// - Funkcja uruchamiająca algorytm //Gradient Descent// dla przypadku wielowymiarowego
* :!: //featureNormalize.m// - Funkcja normalizująca dane wejściowe
* :!: //normalEqn.m// - Funkcja dla regresji liniowej wyznaczająca parametry ze wzoru
===== Warm Up Exercise =====
Otwórz plik //warmUpExercise.m// w swoim ulubionym edytorze tekstu i w miejscu oznaczonym komentarzami wpisz kod, który wygeneruje macierz jednostkową 5x5 i zwróci ją jako wartość zwracaną funkcji.
$$M = \begin{bmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 1 \\
\end{bmatrix}$$
**Uwaga** W Octave istnieje funkcja generująca macierz jednostkową. Nazywa się //eye//. Aby dowiedzieć się więcej na temat tej funkcji wpisz w konsoli Octave help eye
Kiedy poprawnie uzupełnisz kod funkcji zapisz plik i uruchom skrypt //ex1//. Testuje on działanie poszczególnych zadań i prezentuje wykorzystanie ich w //praktyce//.
Jeśli coś nie działa, uruchom skrypt //check//. Przeprowadza on test działania poszczególnych funkcji i pokazuje poprawne wyniki.
===== Regresja Liniowa dla jednej zmiennej =====
W tej części zajmiemy się przypadkiem regresji liniowej dla jednej zmiennej.
Załóżmy, że jesteśmy CEO sieci restauracji i planujemy otwarcie kilku kolejnych lokali.
Na podstawie danych dotyczących aktualnie otwartych restauracji i zysku jaki z nich otrzymujemy chcemy wybrać miasta w których najbardziej opłaci się otwarcie inwestycji.
Plik //ex1data1.txt// zawiera te dane. Pierwsza kolumna zawiera populację danego miasta, druga zysk w tym mieście. Ujemne wartości oznaczają stratę.
==== Plot Data ====
Uzupełnij plik //plotData.m// tak, aby rysowała wykres w taki sposób jak na rysunku poniżej.
Pamiętaj o podpisaniu osi.
Aby dowiedzieć się więcej o funkcji plot, wpisz w konsoli Octave help plot
{{:pl:dydaktyka:ml:plot1.png|Wykres danych uczących}}
Sprawdź działanie funkcji za pomocą skryptu //ex1//.
==== Compute Cost ====
W pierwszej kolejności zaimplementuj funkcję kosztu dla regresji liniowej (plik //computeCost.m//).
Funkcja kosztu dana jest wzorem:
$$J(\theta) = \frac{1}{2m}\sum\limits_{i=1}^m(h_{\theta}(x^{(i)}})-y^{(i)}})^2$$
Gdzie
$$h_{\theta}(x) = \theta^Tx = \theta_0+\theta_1x_1 $$
**Uwaga** Pomyśl jak zapisać kod tak, aby nie używać pętli! Dzięki temu automatycznie będzie on pasował do drugiej części zadania (Regresja liniowa z wieloma zmiennymi)
Przetestuj działanie funkcji skryptem //check.m//.
==== Gradient Descent ====
Ideą algorytmu Gradient Descent jest znalezienie odpowiednich współczynników $\theta$, tak aby funkcja kosztu dla danych treningowych była najmniejsza.
W każdym kroku algorytmu uaktualniamy zatem wartości współczynników korzystając ze wzoru:
$$\theta_j = \theta_j-\alpha\frac{1}{m}\sum\limits_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_j^{(i)} $$
**Uwaga 1** Zwróć uwagę, że funkcja $h_{\theta}(x)$ wykorzystuje do obliczenia swojej wartości współczynniki $\theta$ :!: Pamiętaj więc, żeby najpierw obliczyć uaktualnienia, a dopiero na samym końcu uaktualnić wartości współczynników $\theta$.
**Uwaga 2** Spróbuj zapisać kod unikając pętli - będzie on wtedy działał dla wersji z wieloma zmiennymi.
Przetestuj działanie algorytmu regresji liniowej używając skryptów //check.m// oraz //ex1.m//.
Powinieneś zobaczyć następujący wynik:
{{:pl:dydaktyka:ml:plot2.png|Wynik działania algorytmu regresji liniowej}}
===== Regresja Liniowa dla wielu zmiennych =====
Zakładamy, ze chcemy sprzedać dom, ale nie jesteśmy pewni jaką cenę ustalić. Mamy dostęp do danych o innych domach i cenach za jakie zostały sprzedane. Na tej podstawie chcemy ustalić cenę naszego domu.
Dane dotyczące charakterystyki domów są dwuwymiarowe (a nie jak w poprzednim wypadku jednowymiarowe). Zawierają one następujące informacje:
* metraż domu (w stopach),
* ilość sypialni.
**Uwaga** w tej części skryptem pomagającym w ukończeniu zadań jest //ex1_multi.m// oraz //check.m//.
==== Feature Normalization ====
Dane odnośnie powierzchni domu i ilości sypialni nalezą do równych rzędów wielkości. Warto je w związku z tym znormalizować, aby zapewnić lepsze działanie algorytmowi.
Normalizacja danych odbywa się według wzoru:
$$x_{norm}^{j,i} = \frac{x^{j,i}-\mu^j}{\sigma^j}$$
Gdzie:
$x^{j,i}$ jest $i-tym$ elementem ze zbioru danej cechy $j$ \\
$\mu^j$ jest średnią elementów cechy $j$ \\
$\sigma^j$ jest odchyleniem standardowym dla elementeów cechy $j$
Sprawdź działanie funkcji skryptem //check.m//
==== Compute Cost Multi ====
Uzupełnij funkcję //computeCostMulti.m// dla przypadku wielowymiarowego. Pamiętaj, że funkcja nie powinna ograniczać swojego działania tylko dla danych 2-wymiarowych.
Wektorowy zapis funkcji kosztu wygląda następująco
$$J(\theta) = \frac{1}{2m}(X\theta - y)^T(X\theta - y) $$
Przetestuj działanie funkcji skryptem //check.m//
**Uwaga** Jeśli wykorzystałeś wektorową (bez pętli) implementację funkcji //computeCost.m// możesz przekleić kod - dobrze napisana wektorowa implementacja będzie działać dla dowolnego wymiaru danych!
==== Gradient Descent Multi ====
Uzupełnij funkcję //gradientDescentMulti.m// dla przypadku wielowymiarowego. Pamiętaj, że funkcja nie powinna ograniczać swojego działania tylko dla danych 2-wymiarowych.
Przetestuj działanie funkcji skryptem check.m
**Uwaga** Jeśli wykorzystałeś wektorową (bez pętli) implementację funkcji //gradientDescent.m// możesz przekleić kod - dobrze napisana wektorowa implementacja będzie działać dla dowolnego wymiaru danych!
=== Dobór współczynnika uczenia ===
**Uwaga** Po uruchomieniu skryptu //ex1_multi.m// prawdopodobnie otrzymasz wykres funkcji kosztu względem ilości iteracji, który nie wyglądają poprawnie... Dzieje się tak, ponieważ współczynnik uczenia $\alpha$ oraz ilość iteracji są źle dobrane.
Otwórz plik //ex1_multi.m// i w okolicach linii 85 dokonaj następujących modyfikacji:
* zmień ilość iteracji na 50
* zmieniaj współczynnik $\alpha$, przypisując mu wartości: 0.3, 0.1, 0.03, etc. ($x_{i+1} = x_{i}*3$)
Zobacz jak zmienia się wykres funkcji kosztu. Dobierz dane tak, aby wykres wyglądał tak jak poniżej:
{{:pl:dydaktyka:ml:plot3.png|Wykres funkcji kosztów względem liczby iteracji}}
=== Wyznaczenie aproksymacji ceny domu ===
Teraz, kiedy współczynnik uczący został poprawnie dobrany, należy zmodyfikować plik //ex1_multi.m// w okolicach linii 104, tak aby do zmiennej //price// przypisana została aproksymowana wartość domu o powierzchni 1650 stóp kwadratowych i 3 sypialniach.
Powinieneś otrzymać wartość, około 290000.
**Uwaga** Pamiętaj o normalizacji danych...:)
==== Normal Equation ====
Wartości współczynników $\theta$ mogą zostać wyznaczone bez konieczności uruchamiania algorytmu gradient descent. Wystarczy zastosować poniższe równanie:
$$\theta = (X^TX)^{-1}X^Ty$$
Zwróć uwagę, że w tym przypadku nie jest konieczna normalizacja.
Zmodyfikuj plik //ex1_multi.m// w okolicach linii 152, tak aby do zmiennej //price// przypisana została aproksymowana wartość domu o powierzchni 1650 stóp kwadratowych i 3 sypialniach.
Powinieneś otrzymać wartość podobną do tej wyznaczonej w przypadku algorytmu Gradient Descent.
==== Uwagi ====
Dużo materiału. Nie wszyscy zdążyli ze zrobieniem wszystkich zadań. Być może następnym razem opłacałoby się rozbicie tych lab na dwie części.