Hello list,<br>here follows a short resume of what discussed during the yesterday&#39;s meeting :)<br><br>- <b>Media Fetcher Backends:</b><br>Hayri is responsible for this with his GSoC. Currently we have 2 dataengines, called <i>picture </i>and <i>video</i>.<br>



Both were intended as a bridge among different fetching backends and the PMC browsing view.<br>Their API is really similar except for little specific stuff and so we decided to merge them into one, unique,<br>WebMedia DataEngine (the name can be, of course, changed to a better one):<br>



the common data structure we&#39;ll use to return the fetched information from web services will be wrapped into something like:<br>MediaResource and MediaResourceCollection. The DataEngine and its backend will all be written in JS given the nature of the data: web-driven.<br>



We currently have everything to provide such kind of DataEngine except for the <i>add-on finder</i> which is something Aaron will likely work on soon.<br>Also there&#39;s something we can eventually share with the kde-silk project, so maybe we should have a talk with them in case we already have<br>



tools for such stuff.<br>Additional for Hayri: as stated by Aaron: Network  access is already in the bindings while xml parsing can be done via <a href="http://xmljs.sourceforge.net/" target="_blank">http://xmljs.sourceforge.net/</a><br>



<br><br>- <b>QML into PMC:<br></b>We&#39;re gonna make use of QML for layouts in PMC and specifically in our State Machine.<br>Christopher Blauvelt is contributing a lot with QML into PMC.<br>Currently the aim is to have a new view for the mediabrowser, inheriting its AbstractItemView,<br>


that takes advantage of QML in order to show pictures in a fancy way :p<br>For those who are curious some stuff is there under the declarative/ folder in the root directory.<br><br>- <b>QGestures and input abstraction in PMC</b><br>


This is a bit tricky part and probably needs some further discussion. The aim is to have a sort of layer that maps different input events<br>into common Media Center events like <i>play, pause, next-picture, previous-picture, volume-up </i>and so on..<br>

This way we can have different input devices to be recognized and ready to be used (think about remotes and/or keyboards for example).<br>As discussed we&#39;ll probably use the QGestureEvent and eventually create our own PMC events in order to ease the mapping.<br>

Later events will be sent to the components loaded into PMC that will be able to perform the proper action.<br>I also think that we can have virtual event methods in our base MCApplet classes like playEvent, volumeUpEvent and such.<br>

In each applet the gesture recognition would call the proper virtual event method.<br>Of course i might be wrong so, please, point out your thoughts about this.<br><br>I think this is all; please add what i eventually missed from the meeting.<br>

<br>Cheers!<br><br>P.S.: How to upload the IRC log to <a href="http://plasma.kde.org" target="_blank">plasma.kde.org</a>?<br clear="all"><br>-- <br>Alessandro Diaferia<br>KDE Developer<br>KDE e.V. member<br>
<br>