=== Cel ćwiczenia === Celem pierwszych zajęć, było zapoznanie się z zestawem Lego Mindstorms NXT, oraz środowiskiem programistycznym dostarczonym wraz z zestawem. === Przebieg ćwiczenia === Zgodnie z instrukcją, sprawdziliśmy działanie poszczególnych sensorów: * ultradźwiękowego sensora odległości * czujnika dotyku * czujnika światła * czujnika natężenia dźwięku Dzięki temu, poznaliśmy ograniczenia jakie one stawiają. Zauważyliśmy m.in. , że : * czujnik światła jest w stanie rozróżniać kolory, ale w niewielkim stopniu - czerwony od niebieskiego, ale rożnica pomiędzy zielonym a niebieskim była prawie niezauważalna * sensor odległości ma dość niską rozdzielczość - prawie 5cm różnicy od rzeczywistych odległości, oraz miał problemy z rozpoznaniem mniejszych przedmiotów - noga od krzesła * mikrofon jest bardzo wrażliwy na wibracje, uderzenia co czasem daje przekłamane odczyty. * czujnik dotyku rozpoznaje stan "wciśnięty" dopiero po użyciu większej siły. == Środowisko programistyczne == Na pierwszy rzut oka, wydaje dość intuicyjne i proste. Stworzenie prostego programu, który znajdował się na tutorialu nie przysporzyło nam problemów. Nasz pierwszy program, działał w następujący sposób: * Jedź prosto dopóki sensor dotyku nie zostanie wciśnięty * zatrzymaj wszystkie silniki * zaciśnij szczęki * Obróć robota o 180 stopni * Jedź prosto {{:pl:dydaktyka:jsi:2009:sprawozdania:first.png|}} Kolejny nasz program, wykorzystujący pętlę warunkowe wyglądał w ten sposób: * jeśli odczyt sonara wynosił <30cm, 50cm> , jedź prosto * jeśli nie, zatrzymaj silniki {{:pl:dydaktyka:jsi:2009:sprawozdania:second.png|}} ---- Kody źródłowe tych programów znajdują się tutaj: {{:pl:dydaktyka:jsi:2009:sprawozdania:first.rbt|}} {{:pl:dydaktyka:jsi:2009:sprawozdania:second.rbt|}}