]> git.vanrenterghem.biz Git - git.ikiwiki.info.git/commitdiff
minor reworking of page fetch section
authorJon Dowland <jon@alcopop.org>
Fri, 16 Oct 2009 10:23:55 +0000 (11:23 +0100)
committerJon Dowland <jon@alcopop.org>
Fri, 16 Oct 2009 10:23:55 +0000 (11:23 +0100)
doc/tips/convert_mediawiki_to_ikiwiki.mdwn

index 3f771ed9bb4bbce006790e6826711f0040dcfe96..4a750882b6bc18ced950b07f9cbfafeb5a218ead 100644 (file)
@@ -53,7 +53,7 @@ Once you have a list of page names, you can fetch the data for each page.
 
 ### Method 1: via HTTP and `action=raw`
 
-You need to create two derived strings from the page titles already: the
+You need to create two derived strings from the page titles: the
 destination path for the page and the source URL. Assuming `$pagename` 
 contains a pagename obtained above, and `$wiki` contains the URL to your
 mediawiki's `index.php` file:
@@ -64,6 +64,9 @@ mediawiki's `index.php` file:
     mkdir -p `dirname "$dest"`
     wget -q "$wiki?title=$src&action=raw" -O "$dest"
 
+You may need to add more conversions here depending on the precise page titles
+used in your wiki.
+
 ### Method 2: via HTTP and `Special:Export`
 
 Mediawiki also has a special page `Special:Export` which can be used to obtain