]> git.vanrenterghem.biz Git - git.ikiwiki.info.git/blobdiff - doc/tips/convert_mediawiki_to_ikiwiki/discussion.mdwn
More testings and fixings:
[git.ikiwiki.info.git] / doc / tips / convert_mediawiki_to_ikiwiki / discussion.mdwn
index 8e1ab2e56efd763ba66531964d65922b4c41574c..f1b0598ee7656470feea9af698908c6e5e6e57c6 100644 (file)
@@ -1,3 +1,15 @@
+20100428 - I just wrote a simple ruby script which will connect to a mysql server and then recreate the pages and their revision histories with Grit. It also does one simple conversion of equals titles to pounds. Enjoy! 
+
+<http://github.com/docunext/mediawiki2gitikiwiki>
+
+-- [[users/Albert]]
+
+----
+
+I wrote a script that will download all the latest revisions of a mediawiki site. In short, it does a good part of the stuff required for the migration: it downloads the goods (ie. the latest version of every page, automatically) and commits the resulting structure. There's still a good few pieces missing for an actual complete conversion to ikiwiki, but it's a pretty good start. It only talks with mediawiki through HTTP, so no special access is necessary. The downside of that is that it will not attempt to download every revision for performance reasons. The code is here: git://anarcat.ath.cx/software/mediawikigitdump.git/ and git://anarcat.ath.cx/software/media2iki.git/ See header of the file for more details and todos. -- [[users/Anarcat]] 2010-10-15
+
+----
+
 The u32 page is excellent, but I wonder if documenting the procedure here
 would be worthwhile. Who knows, the remote site might disappear. But also
 there are some variations on the approach that might be useful:
 The u32 page is excellent, but I wonder if documenting the procedure here
 would be worthwhile. Who knows, the remote site might disappear. But also
 there are some variations on the approach that might be useful:
@@ -8,7 +20,6 @@ there are some variations on the approach that might be useful:
  * Or, querying the mysql back-end to get the names
  * using WWW::MediaWiki for importing/exporting pages from the wiki, instead
    of Special::Export
  * Or, querying the mysql back-end to get the names
  * using WWW::MediaWiki for importing/exporting pages from the wiki, instead
    of Special::Export
- * use <a href="http://www.overnightpools.com/Winter_Covers.htm">pool covers</a>
 
 Also, some detail on converting mediawiki transclusion to ikiwiki inlines...
 
 
 Also, some detail on converting mediawiki transclusion to ikiwiki inlines...
 
@@ -650,3 +661,9 @@ page.--[[users/Chadius]]
 > on mediawiki in general. It seems to produce output that could be
 > used by the [[plugins/contrib/mediawiki]] plugin, if the filenames
 > were fixed to use the right extension.  --[[Joey]] 
 > on mediawiki in general. It seems to produce output that could be
 > used by the [[plugins/contrib/mediawiki]] plugin, if the filenames
 > were fixed to use the right extension.  --[[Joey]] 
+
+>> Here's another I found while browsing around starting from the link you gave Joey<br />
+>> <http://github.com/scy/levitation><br />
+>> As I don't run mediawiki anymore, but I still have my xz/gzip-compressed XML dumps,
+>> it's certainly easier for me to do it this way; also a file or a set of files is easier to lug
+>> around on some medium than a full mysqld or postgres master and relevant databases.