On Mon, Jan 3, 2011 at 1:59 PM, Brian Gerkey <span dir="ltr"><<a href="mailto:gerkey@willowgarage.com">gerkey@willowgarage.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">On Mon, Dec 27, 2010 at 8:24 AM, Brian Gerkey <<a href="mailto:gerkey@willowgarage.com">gerkey@willowgarage.com</a>> wrote:<br>
> On Tue, Dec 21, 2010 at 10:48 PM, Mischa Schaub <<a href="mailto:mischa.schaub@fhnw.ch">mischa.schaub@fhnw.ch</a>> wrote:<br>
>>  I will be offline for several days but would like to work during this time<br>
>> with <a href="http://ros.org/wiki" target="_blank">ros.org/wiki</a> – how could I get a local dump of your great site on my<br>
>> laptop?<br>
<br>
</div><div class="im">> Anybody know a good way to archive a large<br>
> MoinMoin wiki?  If you can prescribe a way to do it (maybe it's just<br>
> tarring up the MoinMoin directory hierarchy on the server?), we can<br>
> bring up a cron job to do it regularly.<br>
<br>
</div>We have a first cut at an offline archive of the <a href="http://ros.org" target="_blank">ros.org</a> wiki:<br>
  <a href="http://www.ros.org/roswiki.tar.gz" target="_blank">http://www.ros.org/roswiki.tar.gz</a><br>
  <a href="http://www.ros.org/doc.tar.gz" target="_blank">http://www.ros.org/doc.tar.gz</a><br>
The first tarball contains the wiki, rendered into HTML by MoinMoin's<br>
export tool.  Unpack it, then open `roswiki/index.html` in a web<br>
browser.<br></blockquote><div><br></div><div>This is an excellent idea!</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
The second tarball contains the auto-generated documentation pages (we<br>
separated it because it's quite big). If you unpack that tarball<br>
inside the `roswiki` directory, then links to autogenerated docs<br>
(e.g., API documentation produced by Doxygen, message/service<br>
documentation) should work.<br>
<br>
There are still some rough edges (e.g., ending up in a directory where<br>
you have to manually click on `index.html`).   Please have a look at<br>
it and provide feedback.  Once we have an archiving step that we're<br>
happy with, we'll start producing a new archive regularly.<br></blockquote><div><br></div><div>Things seem to be okay for a first cut. Some issues I found: There are some broken links to images (the one that I noticed so far is to the logo, but that's not really a big deal). Also, it might be nice to include the CSS in the dump as well. Some things might be harder to read (for example, I can see the code examples in the tutorials being trickier). Might also be good to include any required javascript as well, since it seems like the Ajax that makes the version switcher works isn't available either. For example, in the camera1394 docs, clicking between cturtle and diamondback doesn't change the page. I'm assuming that anything not served from MoinMoin didn't get exported, which would be why things like the CSS or JS didn't get exported.</div>
<div><br></div><div>Another thing that would be really nice is to have this available somewhere in _not_ just a tarball. I can see myself wanting to connect up a computer, sync my local copy of the docs/wiki really quick, then disconnect from the internet and get back to work. That would probably go quicker if we had something that could do incremental changes and only transmit the docs that actually changed. Perhaps stick the docs in a git repository so that people that are updating only need to pull changed files or just have a readonly rsync setup that one could pull from. Actually... putting it in a git repo hosted on github might be a good idea anyways so that users (at least those that know it exists) could still access it whenever <a href="http://ros.org">ros.org</a> goes down (taking the main wiki with it).</div>
<div><br></div><div>It could also be nifty to see a ros package that could make it really easy to set this stuff up and make it more useful. For example, a package could include a facility for updating (or just always include the latest version) of the offline docs, as well as a script that would startup a simple web server serving content out of the offline docs directories. This would make it possible to do something like... 'rosrun roswiki docs_server.py' and then go to <a href="http://robot_hostname:8080">http://robot_hostname:8080</a> in your browser and get the offline docs anytime you are connected to a robot and have the docs server running.</div>
<div><br></div><div>So that's my two cents on some places to go with this whole offline docs idea.</div><div><br></div><div>All in all though, just having the dump as it is currently is gonna come in handy for me. Thanks Brian.</div>
<div><br></div><div>- Eric</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div><div></div><div class="h5"><br>
        brian.<br>
_______________________________________________<br>
ros-users mailing list<br>
<a href="mailto:ros-users@code.ros.org">ros-users@code.ros.org</a><br>
<a href="https://code.ros.org/mailman/listinfo/ros-users" target="_blank">https://code.ros.org/mailman/listinfo/ros-users</a><br>
</div></div></blockquote></div><br>