Cel ćwiczenia
Celem pierwszych zajęć, było zapoznanie się z zestawem Lego Mindstorms NXT, oraz środowiskiem programistycznym dostarczonym wraz z zestawem.
Przebieg ćwiczenia
Zgodnie z instrukcją, sprawdziliśmy działanie poszczególnych sensorów:
Dzięki temu, poznaliśmy ograniczenia jakie one stawiają. Zauważyliśmy m.in. , że :
czujnik światła jest w stanie rozróżniać kolory, ale w niewielkim stopniu - czerwony od niebieskiego, ale rożnica pomiędzy zielonym a niebieskim była prawie niezauważalna
sensor odległości ma dość niską rozdzielczość - prawie 5cm różnicy od rzeczywistych odległości, oraz miał problemy z rozpoznaniem mniejszych przedmiotów - noga od krzesła
mikrofon jest bardzo wrażliwy na wibracje, uderzenia co czasem daje przekłamane odczyty.
czujnik dotyku rozpoznaje stan „wciśnięty” dopiero po użyciu większej siły.
Środowisko programistyczne
Na pierwszy rzut oka, wydaje dość intuicyjne i proste. Stworzenie prostego programu, który znajdował się na tutorialu nie przysporzyło nam problemów.
Nasz pierwszy program, działał w następujący sposób:
Jedź prosto dopóki sensor dotyku nie zostanie wciśnięty
zatrzymaj wszystkie silniki
zaciśnij szczęki
Obróć robota o 180 stopni
Jedź prosto
Kolejny nasz program, wykorzystujący pętlę warunkowe wyglądał w ten sposób:
jeśli odczyt sonara wynosił <30cm, 50cm> , jedź prosto
jeśli nie, zatrzymaj silniki
Kody źródłowe tych programów znajdują się tutaj:
first.rbt
second.rbt