Hi,<br>I went through the paper and few more related articles. And as Boemann already mentioned, many of the features are under ongoing work in link-grammar which is undergoing research and implementation in OpenCog NLP subsystem. <br>

It already uses probabilistic approach<br><a href="http://www.cs.cmu.edu/afs/cs.cmu.edu/project/link/pub/www/papers/ps/gram3gram.pdf" target="_blank">http://www.cs.cmu.edu/afs/cs.cmu.edu/project/link/pub/www/papers/ps/gram3gram.pdf</a><br>

but the APP/EPP and distorted treebank methods described in the paper promises better error detection and many shortcomings of link-grammar like inability to handle quotations, long-run sentences etc. are resolved here.<br>
<br>So, my views are if we want a really good parser we can work on link-grammar parser as base and we can take help from link-grammar people also. There are few more available parsers which can be used for help like maximum entropy based statistical parser like Charniak & Bikel parser.<br>

<br>Or the other option can be we can implement link-grammar parser in our grammarchecker plugin and as link-grammar will improve, accordingly user can update his/her version of link-grammar. We can still help to improve the parser.<br>

<br>I also went through a paper regarding LanguageTool which is a rule-based grammar checker<br><a href="http://www.danielnaber.de/languagetool/download/style_and_grammar_checker.pdf">http://www.danielnaber.de/languagetool/download/style_and_grammar_checker.pdf</a><br>
it has an advantage that is, it is available in many languages. Still I think link-grammar is better.<br><br>I need to read the paper a few more times to understand it completely.<br>Waiting for suggestions and opinions.<br>
:)<br><br><br><div class="gmail_quote">On Mon, May 14, 2012 at 9:14 AM, Elvis Stansvik <span dir="ltr"><<a href="mailto:elvstone@gmail.com" target="_blank">elvstone@gmail.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p>Den 14 maj 2012 12:44 skrev "C. Boemann" <<a href="mailto:cbo@boemann.dk" target="_blank">cbo@boemann.dk</a>>:</p>


<div><div><br>
><br>
> On Monday 14 May 2012 12:29:01 <a href="mailto:matus.uzak@gmail.com" target="_blank">matus.uzak@gmail.com</a> wrote:<br>
> > Hi,<br>
> ><br>
> > I don't think that a grammar checker based entirely on a Bayes<br>
> > classifier is logically sound.<br>
> ><br>
> > Simplified:<br>
> ><br>
> > In order to detect textual spam, the Bayes classifier is first trained<br>
> > on examples of spam (training set).<br>
> > The classifier quality depends on the training set being<br>
> > representative enough, the textual data representation (input to the<br>
> > classifier)<br>
> > and parameters of the training algm.  The trained classifier is then a<br>
> > set S of (mean value, variance) pairs in input space which represent<br>
> > known spam.<br>
> > If a previously unknown input falls into the variance range of any of<br>
> > the members of S, then it's labeled as spam.<br>
> ><br>
> > A grammar checker should have the language grammar represented<br>
> > exactly, by a formal grammar usually.  Again a feasible representation<br>
> > of the textual data is required. Then you check if a sentence can be<br>
> > generated by the formal grammar.  The answer is in {yes, not}.<br>
> ><br>
> > Lightproof seems to be rule based. And rule based systems have strong<br>
> > maintainability drawbacks.<br>
> ><br>
> > A combination of a rule based system with Bayes sounds promising. That<br>
> > would enable something like context based grammar checking.<br>
> ><br>
> > br,<br>
> ><br>
> > -matus uzak<br>
> The trouble with rules is that it's hard to codify a language grammar in a way<br>
> that wont give false warnings. Also as you said it is hard to maintain, not to<br>
> say it requires manual work to define new languages.<br>
><br>
> Bayes may not be the best match, but something that is adaptive and can learn<br>
> by giving it a corpus, sounds very promising to me.<br>
><br>
> From Elvis Stansvik I got the following link which I've passed on to garima<br>
> already:<br>
><br>
> <a href="http://doras.dcu.ie/16776/1/jw_binder_2012-01-10.pdf" target="_blank">http://doras.dcu.ie/16776/1/jw_binder_2012-01-10.pdf</a><br>
><br>
> Now this may be what link grammar does already. I just read back and the link<br>
> grammar page on the Abisource site does mention tree-bank and statistical<br>
> which is what the paper talks about too. There may be differences, but not sure<br>
> it's worth it to make us do something on our own.<br>
><br>
> So I've maybe changed my mind again and would favour the link grammar<br>
><br>
> Right now I'm just waiting for garima to reply with some analysis. He was<br>
> going to read the paper.</div></div><p></p>
<p>That's quite ambitious of him; it's not just a paper but a 200+ page dissertation :)</p><div><div>
<p>><br>
> Boemann<br>
> _______________________________________________<br>
> calligra-devel mailing list<br>
> <a href="mailto:calligra-devel@kde.org" target="_blank">calligra-devel@kde.org</a><br>
> <a href="https://mail.kde.org/mailman/listinfo/calligra-devel" target="_blank">https://mail.kde.org/mailman/listinfo/calligra-devel</a><br>
</p>
</div></div><br>_______________________________________________<br>
calligra-devel mailing list<br>
<a href="mailto:calligra-devel@kde.org" target="_blank">calligra-devel@kde.org</a><br>
<a href="https://mail.kde.org/mailman/listinfo/calligra-devel" target="_blank">https://mail.kde.org/mailman/listinfo/calligra-devel</a><br>
<br></blockquote></div><br>