Pour cela, il s'agit de développer des modèles de haut niveau pour les formes animées, capables d'exprimer des connaissances a priori, par exemple de nature géométrique ou sémantique. Combinés à une interaction intuitive sur tablette graphique ou sur écran tactile, ces modèles sont destinés à engendrer rapidement des contenus 3D de qualité, tout en restant aussi simples à utiliser qu'un papier et un crayon. Ils permettront à l'utilisateur de "sculpter" progressivement une scène 3D, d'une première ébauche à une maquette animée complète. L'ERC permet de financer cinq doctorants, cinq post-doctorants, un ingénieur pendant cinq ans ainsi que 30 mois de professeurs invités.

Biographie 

Marie-Paule Cani est Professeur en informatique à Grenoble INP depuis 1997. Elle a été membre junior de l’Institut Universitaire de France (IUF) de 1999 à 2004. Elle est lauréate du prix Irène Joliot Curie 2007 décerné par le Ministère de la Recherche et la fondation EADS, dans la catégorie mentorat. Elle est responsable de l’équipe-projet IMAGINE commune au LJK et à l’INRIA.

Ses activités de recherche portent sur la synthèse de mondes virtuels animés, ce qui l’a conduite à développer des méthodes de modélisation géométrique et d’animation. Ses contributions ont porté par exemple sur l’animation efficace par modèles physiques, les surfaces implicites et les déformations à volume constant appliquées à la modélisation et à l’animation interactives, la conception de multi-modèles incorporant des représentations alternatives (textures surfaciques et volumiques) et des niveaux de détail.

Elle a été la première présidente du Chapitre Francais d’Eurographics, créé en 2003. Membre du comité exécutif d’Eurographics de 2004 à 2008, elle a été nommée "fellow d’Eurographics" en 2005. Elle vient juste d’obtenir une prestigieuse ERC Advanced Grant pour développer le projet de recherche EXPRESSIVE : EXPloring REsponsive Shapes for Seamless desIgn of Virtual Environment.

Résumé

Despite our great expressive skills, we humans lack an easy way of conveying the 3D shapes we imagine, even more so for dynamic shapes that change over time. Over centuries we relied on drawing and sculpture to convey shapes. However, these tools require significant expertise and time investment, especially when one aims to describe complex or dynamic shapes. With the advent of virtual environments one would expect digital modeling to replace these traditional tools. Unfortunately, conventional techniques in the area have failed, since even trained computer artists still create with traditional media and only use the computer to reproduce already designed content.

Could digital media be turned into a tool, even more expressive and simpler to use than a pen, to convey and refine both static and dynamic 3D shapes ? This would make shape design directly possible in virtual form, from early drafting to progressive refinement and finalization of an idea. To this end, models for shape and motion need to be redefined from a user-centered perspective. This talk will present our recent work towards “responsive shapes”, namely high level models that take form, refine, move and deform based on user intent, expressed through intuitive interaction gestures