Prasad,<br><br><div class="gmail_quote">On Wed, Oct 6, 2010 at 2:33 AM, Prasad Dixit <span dir="ltr"><<a href="mailto:abhimohpra@gmail.com">abhimohpra@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
Hello experts,<br>
 This question is an extension of my thread raised sometime back.<br>
1.<br>
Please let me know what your experience says...<br>
I am working on indoor robot application, in which i am using only one<br>
Hokuyo URG-04LX-UG01 sensor.  I would like to know that, Is it efficient to<br>
use only one sensor? can i achieve Localization, Planning and Navigation<br>
cycle using only single sensor? How effective would be ROS algorithms in<br>
such case? Do i need any additional supportive sensors like IMU or some<br>
external Trans-receivers or Vision sensors?<br>
<br></blockquote><div><br></div><div>All you should need to do navigation is the single laser scanner and a good source of odometry information to describe how the robot base is moving. I've had good luck with no more than a gyro and wheel encoders for outputting odometry information for a differential drive robot and fusing them with an Extended Kalman Filter to output the information in the Odometry message type. As long as your odometric reference frame does not drift very quickly, navigation should be possible. By pairing those sensors with a Sick LIDAR, I'm able to get accurate localization (1-2 cm error would be my guess, though I've never directly measured it, only seen algorithms that depend on precise localization have error in that range) in a map generated with gmapping of my lab. One thing that may affect localization using your Hokuyo (depending on environment) is the short range of the URG-04LX series; they are good out to 4 meters or so if I recall correctly, which is much lower than the max range of the Sick's I use (80 meter max range). I haven't done much testing with such a short range LIDAR, so I don't know how it will affect AMCL's performance. As far as planning and path following, you may want to refer to <a href="http://ros-users.122217.n3.nabble.com/Nav-Stack-with-nonholonomic-robots-td1404191.html#none">http://ros-users.122217.n3.nabble.com/Nav-Stack-with-nonholonomic-robots-td1404191.html#none</a> which describes my experience with base_local_planner and base_global_planner on my differential drive robot; the navigation stack documentation will also be useful for evaluating whether the algorithms used are optimal for your situation and robot.</div>
<div><br></div><div>If you only want to use the laser, there are some packages (stack page: <a href="http://www.ros.org/wiki/scan_tools">http://www.ros.org/wiki/scan_tools</a>) for doing odometry estimation from the laser directly, but I cannot comment on their effectiveness as I've never used them.</div>
<meta http-equiv="content-type" content="text/html; charset=utf-8"><meta http-equiv="content-type" content="text/html; charset=utf-8"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Though I am using Sonar sensors but they are not involved anywhere in<br>
Navigation process. They are just kept as precautionary measures in case<br>
obstacle is on some height which is above laser scans.<br> </blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
2. Is it possible to change the range of the Laser scanner dynamically? Is<br>
there any parameter for it to set that in ROS?<br>
For e.g: Suppose my Robot is running in a museum. The robot is mounted with<br>
the touch screen on the top (like texai monitor) . A viewer can access the<br>
screen to get the information. Now my laser will have specific range for<br>
usual navigation but if user comes in its front the laser then that time it<br>
should reduce its range so as not to treat user as an obstacle.<br>
OR i can have camera to capture face and direct laser to reduce its range.<br></blockquote><div><br></div><div>I believe you _can_ change the laser scanner's parameters dynamically using dynamic_reconfigure. I'm not familiar with it any farther than using the reconfigure_gui provided in the dynamic_reconfigure package, but that GUI does not require you to manually restart the Hokuyo driver when you change parameters. I suggest you examine the dynamic_reconfigure docs to investigate how to change the parameters from another ROS node programmatically.</div>
<div><br></div><div>That said, in this situation, I doubt you want to reduce the laser's range so much as filter out any pings that you can say for certain correspond to the user and not the environment; I believe there is a node someplace that does't this for the PR2's arms in the tilting laser scans, but I can't recall the name of the node. </div>
<div><br></div><div>Also, filtering them out entirely would be a poor idea in my mind, as the user _is_ still an obstacle that you don't want to drive through (at least I'm assuming you don't want to drive through them :) ). Make sure you keep in mind that the robot can only avoid things it has knowledge of, either known a priori or gained through sensors while navigating.</div>
<div><br></div><div>Hope that helps.</div><div><br></div><div>- Eric</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
- Prasad<br>
<font color="#888888"><br>
--<br>
View this message in context: <a href="http://ros-users.122217.n3.nabble.com/Single-Laser-dependency-tp1640828p1640828.html" target="_blank">http://ros-users.122217.n3.nabble.com/Single-Laser-dependency-tp1640828p1640828.html</a><br>

Sent from the ROS-Users mailing list archive at Nabble.com.<br>
_______________________________________________<br>
ros-users mailing list<br>
<a href="mailto:ros-users@code.ros.org">ros-users@code.ros.org</a><br>
<a href="https://code.ros.org/mailman/listinfo/ros-users" target="_blank">https://code.ros.org/mailman/listinfo/ros-users</a><br>
</font></blockquote></div><br>