Cel ćwiczenia

Celem pierwszych zajęć, było zapoznanie się z zestawem Lego Mindstorms NXT, oraz środowiskiem programistycznym dostarczonym wraz z zestawem.

Przebieg ćwiczenia

Zgodnie z instrukcją, sprawdziliśmy działanie poszczególnych sensorów:

  • ultradźwiękowego sensora odległości
  • czujnika dotyku
  • czujnika światła
  • czujnika natężenia dźwięku

Dzięki temu, poznaliśmy ograniczenia jakie one stawiają. Zauważyliśmy m.in. , że :

  • czujnik światła jest w stanie rozróżniać kolory, ale w niewielkim stopniu - czerwony od niebieskiego, ale rożnica pomiędzy zielonym a niebieskim była prawie niezauważalna
  • sensor odległości ma dość niską rozdzielczość - prawie 5cm różnicy od rzeczywistych odległości, oraz miał problemy z rozpoznaniem mniejszych przedmiotów - noga od krzesła
  • mikrofon jest bardzo wrażliwy na wibracje, uderzenia co czasem daje przekłamane odczyty.
  • czujnik dotyku rozpoznaje stan „wciśnięty” dopiero po użyciu większej siły.
Środowisko programistyczne

Na pierwszy rzut oka, wydaje dość intuicyjne i proste. Stworzenie prostego programu, który znajdował się na tutorialu nie przysporzyło nam problemów. Nasz pierwszy program, działał w następujący sposób:

  • Jedź prosto dopóki sensor dotyku nie zostanie wciśnięty
  • zatrzymaj wszystkie silniki
  • zaciśnij szczęki
  • Obróć robota o 180 stopni
  • Jedź prosto

Kolejny nasz program, wykorzystujący pętlę warunkowe wyglądał w ten sposób:

  • jeśli odczyt sonara wynosił <30cm, 50cm> , jedź prosto
  • jeśli nie, zatrzymaj silniki


Kody źródłowe tych programów znajdują się tutaj: first.rbt second.rbt

pl/dydaktyka/jsi/2009/sprawozdania/jsi20091202-11d.txt · ostatnio zmienione: 2019/06/27 15:50 (edycja zewnętrzna)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0