]> git.vanrenterghem.biz Git - git.ikiwiki.info.git/blob - doc/todo/plugin_data_storage.mdwn
web commit from 66.249.66.135: poll vote (Accept both)
[git.ikiwiki.info.git] / doc / todo / plugin_data_storage.mdwn
1 ikiwiki currently stores some key data in .ikiwiki/index. Some plugins need a
2 way to store additional data, and ideally it would be something managed by
3 ikiwiki instead of ad-hoc because:
5 * consistency is good
6 * ikiwiki knows when a page is removed and can stop storing data for that
7   page; plugins have to go to some lengths to track that and remove their
8   data
9 * it's generally too much code and work to maintain a separate data store
11 The aggregate plugin is a use-case: of 324 lines, 70 are data storage and
12 another 10 handle deletion. Also, it's able to use a format very like
13 ikiwiki's, but it does need to store some lists in there, which complicates
14 it some and means that a very naive translation between a big per-page hash
15 and the .index won't be good enough.
17 The current ikiwiki index format is not very flexible, although it is at
18 least fairly easy and inexpensive to parse as well as hand-edit.
20 Would this do: ?
22 * Plugins can register savestate and loadstate hooks. The hook id is the
23   key used in the index file that the hook handles.
24 * loadstate hooks are called and passed a list of all values for a page
25   that for the registered key, and the page name, and should store the data
26   somewhere
27 * savestate hooks are called and passed a page, and should return a list of 
28   all values for that key for that page
29 * If they need anything more complex than a list of values, they will need
30   to encode it somehow in the list.
32 Hmm, that's potentially a lot of function calls per page eave load/save
33 though.. For less function calls, only call each hook *once* per load/save,
34 and it is passed/returns a big hash of pages and the values for each page.
35 (Which probably means `%state=@_` for load and `return %state` for save.)
37 It may also be better to just punt on lists, and require plugins that need
38 even lists to encode them. Especially since in many cases, `join(" ", @list)`
39 will do. Er hmm, if I do that though, I'm actually back to a big global
40 %page_data that plugins can just toss data into, arn't I? So maybe that's
41 %the right approach after all, hmm.. Except that needing to decode/encode list
42 data all the time when using it would quite suck, so no, let's not do that.
44 Note that for the aggregate plugin to use this, it will need some changes:
46 * guid data will need to be stored as part of the data for the page
47   that was aggregated from that guid. Except, expired pages don't exit, but
48   still have guid data to store. Hmm.
49 * All feeds will need to be marked as removable in loadstate, and only
50   unmarked if seen in preprocess. Then savestate will need to not only
51   remove any feeds still marked as such, but do the unlinking of pages
52   aggregated from them too.
54 If I do this, I might as well also:
56 * Change the link= link= stuff to just links=link+link etc.
57 * Change the delimiter from space to comma; commas are rare in index files,
58   so less ugly escaped delimiters to deal with.