]> git.vanrenterghem.biz Git - git.ikiwiki.info.git/commitdiff
addendum re: plans for structuring JS
authorhttp://jmtd.livejournal.com/ <http://jmtd.livejournal.com/@web>
Mon, 30 Nov 2009 11:22:23 +0000 (06:22 -0500)
committerJoey Hess <joey@kitenet.net>
Mon, 30 Nov 2009 11:22:23 +0000 (06:22 -0500)
doc/forum/web_service_API__44___fastcgi_support.mdwn

index 480014c0065d0a32c8c25d9c0e13c4ffe5b14180..4a78fb932e92ba6380d05cff0f97fe0728bc1470 100644 (file)
@@ -4,6 +4,8 @@ There are some things that ikiwiki.cgi is asked to do which do not involve chang
 
 For one thing I am working on slowly ([[todo/interactive todo lists]]), I've hit a situation where I am likely to need to implement doing markup evaluation for a subset of a page. The problem I face is, if a user edits content in the browser, markup, ikiwiki directives etc. need to be expanded. I could possibly do this with a round-trip through edit preview, but that would be for the whole content of a page, and I hit the problem with editing a list item.
 
+> (slight addendum on this front. I'm planning to split the javascript code for interactive todo lists into two parts: one for handling round trips of content to and from ikiwiki.cgi, and the various failure modes that might occur (permission denied, edit conflicts, login required, etc.) ; then the list-specific stuff can build on top of this. The first chunk might be reusable by others for other AJAXY-edit fu.)
+
 Anyway - I've realised that a big part of the interactive todo lists stuff is trying to handle round trips to ikiwiki.cgi through javascript. A web services API would make handling the various conditions of this easier (e.g. need to login, login failed, etc.). I'm not sure what else might benefit from a web services API and I have no real experience of either using or writing them so I don't know what pros/cons there are for REST vs SOAP etc.
 
 Second, and in a way related, I've been mooting hacking fastcgi support into ikiwiki. Essentially one ikiwiki.cgi process would persist and serve CGI-ish requests on stdin/stdout. The initial content-scanning and dependency generation would happen once and not need to be repeated for future requests. Although, all state-changing operations would need to be careful to ensure the in-memory models were accurate. Also, I don't know how suited the data structures would be for persistence, since the current model is build em up, throw em away, they might not be space-efficient enough for persistence.