<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 12pt;
font-family:Calibri
}
--></style></head>
<body class='hmmessage'><div dir='ltr'>Dear ROS users,<br><span id="ecxOLK_SRC_BODY_SECTION"><div><div class="ecxhmmessage"><div dir="ltr">
<br>
I would like to introduce <a href="http://openptrack.org/" target="_blank">OpenPTrack</a>,
 an open source project for real time people tracking in RGB-D camera 
networks targeted towards applications in education, art, and culture 
(e.g. the <a href="http://vimeo.com/109849929" target="_blank">Whorl</a> installation,
<a href="http://vimeo.com/114824779" target="_blank">LASHP Welcome Center</a> prototype, and <a href="http://ampersand.gseis.ucla.edu/noel-enyedy-motion-tracking-technology-enhances-k-12-learning/" target="_blank">
this</a> education research project.)</div>
</div>
</div>
</span><span id="ecxOLK_SRC_BODY_SECTION">
<div class="ecxhmmessage">
<div dir="ltr"><br>
OpenPTrack is a joint effort of <a href="http://remap.ucla.edu/" target="_blank">UCLA REMAP</a> and
<a href="http://www.openperception.org/" target="_blank">Open Perception</a>. Key collaborators include the
<a href="http://www.unipd.it/en/" target="_blank">University of Padova</a>, <a href="http://electroland.net" target="_blank">Electroland</a> and <a href="http://www.iub.edu/" target="_blank">Indiana University Bloomington</a>.
<br>
<br>
It consists of a collection of ROS packages whose main features are:<br>
<ul><li>user-friendly network <b>calibration</b></li><li>person <b>detection</b> from RGB/infrared/depth images</li><li>efficient multi-person <b>tracking</b></li><li><b>UDP</b> and <b><a href="http://named-data.net/" target="_blank">NDN</a></b> streaming of tracking data in JSON format</li></ul>
</div>
</div>
</span><span id="ecxOLK_SRC_BODY_SECTION">
<div>
<div class="ecxhmmessage">
<div dir="ltr">It currently supports networks of<b> Kinect v1</b>, <b>SwissRanger SR4500</b> and
<b>stereo</b> cameras custom-built with PointGrey cameras. Support for <b>Kinect v2</b> will be added soon.</div>
</div>
</div>
</span>
<div><br>
</div>
<div>We have three  <b>deployed</b> <b>multi-imager testbeds</b> at the UCLA Lab School, UCLA Interpretive Media Laboratory, and University of Indiana, and will add a fourth this month. </div>
<span id="ecxOLK_SRC_BODY_SECTION">
<div>
<div class="ecxhmmessage">
<div dir="ltr"><br>
We are currently <b>looking for developers</b> interested in creating 
easy to use front-end interfaces for OpenPTrack, thus fully automating 
all of the steps of designing the camera network and setting up, 
configuring, calibrating, operating, and debugging
 the system.<br>
<br>
* Required Skills: *<br>
- Experience with C++.<br>
- Experience with Robot Operating System (ROS).<br>
 <br>
* Nice To Have: *<br>
- Experience developing web interfaces.<br>
- Experience with ROS tools for developing web interfaces.<br>- Experience with OpenCV and PCL.<br>
- Knowledge of people tracking algorithms.<br>
- Knowledge of camera calibration algorithms.</div>
</div>
</div>
</span>
<div><br>
</div>
<span id="ecxOLK_SRC_BODY_SECTION">
<div class="ecxhmmessage">
<div dir="ltr">In February, we are planning to launch a pilot 
crowdfunding campaign to help support getting OpenPTrack in the hands of
 more potential users, and would love to get these additional developers
 aboard by that time. </div>
</div>
</span>
<div><br>
</div>
<span id="ecxOLK_SRC_BODY_SECTION">
<div>
<div class="ecxhmmessage">
<div dir="ltr">For applications and any enquiries, please send an email to Jeff Burke (<span><a href="mailto:jburke@remap.ucla.edu">jburke@remap.ucla.edu</a>) or Matteo Munaro (<a href="mailto:munaro@dei.unipd.it">munaro@dei.unipd.it</a>).</span></div>
</div>
</div>
</span>
<div><br>
</div>
<span id="ecxOLK_SRC_BODY_SECTION">
<div>
<div class="ecxhmmessage">
<div dir="ltr">Best regards,<br>
Matteo<br>
<br>
<br>
<u>References:</u><br>
M. Munaro, A. Horn, R. Illum, J. Burke and R. B. Rusu. OpenPTrack: 
People Tracking for Heterogeneous Networks of Color-Depth Cameras. In 
IAS-13 Workshop Proceedings: 1st Intl. Workshop on 3D Robot Perception 
with Point Cloud Library, pp. 235-247, Padova, Italy,
 2014 (<a href="http://www.dei.unipd.it/%7Emunaro/media/Munaro_3DRP2014.pdf" target="_blank">paper</a>|<a href="http://www.pointclouds.org/assets/uploads/3DRP-PCL14_Munaro.pdf" target="_blank">presentation</a>).
<br>
</div></div></div></span><br><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">___________________________________________</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2"><br></font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">Matteo MUNARO, Ph.D.</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2"><br></font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">Intelligent and Autonomous Systems Lab (IAS-Lab)</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">Department of Information Engineering (DEI)</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">Faculty of Engineering, The University of Padua</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">Via Ognissanti 72, I-35131 Padova, Italy</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2"><br></font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">email: munaro@dei.unipd.it</font></div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">phone: +390498277831</font></div><div><div style="font-size:10pt;"><font class="ecxApple-style-span" face="Tahoma" size="2">___________________________________________</font></div></div>                                    </div></body>
</html>