[lagelandenros] VL53L0x (was Stand van zaken)

  • From: Joep Suijs <jsuijs@xxxxxxxxx>
  • To: lagelandenros@xxxxxxxxxxxxx
  • Date: Sat, 23 Jun 2018 13:48:31 +0200

ROS vrienden,

Vervolgactie was onderzoeken of er iets fout is met de verwerking van de
data. En de uitkomst is natuurlijk JA...
De sensor routines waren zo opgezet dat ze de laatst bekende meting geven
totdat er een nieuwe is of tot er twee metingen fout gegaan zijn
(bijvoorbeeld door te grote afstand / geen reflectie). En dat kan zomaar
een paar honderd miliseconden later zijn. Dat leek een goed idee, als je de
data gebruikt om bijvoorbeeld een wand te volgen. Maar in dit geval schoot
ik mezelf daarmee in mijn voet.

Met een draaisnelheid van 180 graden per seconde in een u-vormige
opstelling is dit het verschil:
[image: image.png]

versus

[image: image.png]

Conclusie: de vl53l0x is misschien niet perfect als lidar vervanging (zie
ook deze <https://groups.google.com/forum/#!topic/hbrobotics/M0Eu-qsIqKY>
discussie van afgelopen week), maar een stuk beter dan mijn eerste
resultaten suggereerde...

Groeten,
Joep

Op za 16 jun. 2018 om 12:41 schreef kerling <c.kerling@xxxxxxxxxx>:

ROS vrienden
Naar aanleiding van de ervaringen van Joep met de VL53L0X heb ik nog de
volgende ervaring met de sensor plank opgedaan.
De VL53L0X heeft een zichtkegel met een openingshoek van 25 graden, dit
houdt in dat hij bij een afstand van 1,5 meter kijkt naar een cirkel met
een diameter van 66 cm, dit betekend dat hij uit het totale reflectie beeld
een niet lineair middeling maakt en daar de afstand op baseert. Als echter
het object 20 cm hoog i betekend dit dat grofweg 1/3 in de verte verdwijnt
1/3 wordt gereflecteerd door het obstakel en 1/3 door de grond/bodem
ervoor. Dit leidt tot significante afwijkingen zeker of dat ze het licht
bij die golflengte verschillend reflecteren.
Bij 50 cm afstand is de kijkcirkel 22 cm diameter en zal dus veel meer het
obstakel zijn dat voor reflectie zorgt. Met dunne objecten zoals een
paaltje heeft de sensor ook moeite, dat doet de sharp sensor beter
Doe er je voordeel mee
mvg Kees

*From:* Joep Suijs <jsuijs@xxxxxxxxx>
*Sent:* Friday, June 15, 2018 9:01 PM
*To:* lagelandenros@xxxxxxxxxxxxx
*Subject:* [lagelandenros] Stand van zaken

ROS vrienden,

Een korte update van mijn ROS activiteiten van afgelopen week:

* Voor Robotlib (het c++ framework wat ik op de meeste robotjes gebruik)
had ik al routines om onder windows via MQtt commando's te geven en
berichtjes te besturen. Dit was provisorisch gekoppeld aan ROS en deze week
heb ik daar een echte package van gemaakt. Twee Python3 scripts ook onder
Linux / Python2 werkend gemaakt en samen met de echte ROS node starten met
een launch file. Morgen de ultieme test: gaat het ook op de bijeenkomst
werken, ver van mijn home wifi...
Vervolgactie is inzet van een raspberry pi op de robot. Als alles onder
ROS draait , is het vooral puzzelen hoe het netwerk (handig) op te zetten,
hoe de ROS node automatisch te starten en hoe de ROS node te koppelen aan
ROS op mijn laptop.

* De sensor data van 3 afstandssensoren (VL53L0x) als 'laserscan'
gemodelleerd, zichtbaar gemaakt in rviz en de sensor data van een rondje
rijden opgeslagen in een bag file. De bagfile gebruikt om een kaart op te
bouwen. Opvallend is dat die kaart nergens op lijkt met de standaard
instellingen. Met aangepaste instellingen uit het boek kun je enigszins
herkennen wat het is. Maar... het beeld in rviz - dus de echte sensor data
en zuivere odometrie is op het oog veel beter. Wel zijn er de nodige foute
punten, vooral van objecten op wat grotere afstand als de robot snel
draait. Wij zijn schijnbaar veel beter in staat dit weg te filteren als het
mapping algoritme.
Vervolgactie is onderzoeken of er iets fout is met de verwerking van de
data. Zo niet, dan waarschijnlijk de maximale afstand van de sensor wat
lager zetten. Staat nu op 150cm  maar wellicht is alles boven 50cm negeren
toch beter.

Kortom, weer een paar stapjes vooruit op onze reis van duizend mijl...

Groeten,
Joep


PNG image

PNG image

Other related posts: