Perception visuelle pour la télévigilance

Perception visuelle pour la télé-vigilance

Chef de projet : Patrick Horain Département: EPH

Intérêt majeur du projet

Ce projet développera la perception des personnes par des caméras dans l’environnement, en complément avec d’autres modalités développées dans HadapTIC. Les apports potentiels de la vision sont par exemple :

  • Un suivi robuste et précis des déplacements de la personne dans son environnement,
  • L’analyse de sa démarche et de ses mouvements pour une détection avancée des risques de chutes,
  • L’interaction avec le système par des gestes de commande en complément du dialogue en langue naturelle,
  • La reconnaissance de l’activité de la personne,
  • éventuellement, une évaluation qualitative de son comportement (niveau d’activité, état d’esprit…) pour adapter les exercices cognitifs ou pour le suivi médical.

Etat de l’art

Les progrès de ces dernières années en vision artificielle permettent de détecter un visage [1] et d’acquérir les gestes [2] et les expressions [3] [4] avec une ou plusieurs caméras. Les méthodes par recalage d’un modèle articulé du corps humain [5] fournissent directement les paramètres articulatoires dans l’espace 3D. TELECOM & Management SudParis développe depuis plusieurs années une recherche sur l’acquisition en 3D des gestes humains par vision monoscopique sans marqueurs en temps réel. Celle-ci procède par recalage à la cadence vidéo d’un modèle 3D articulé du corps humain respectant des contraintes biomécaniques sur une séquence vidéo acquise par une simple webcam [6]. Le temps réel est atteint en exploitant les processeurs graphiques des PC grand public [7].

Lien avec des projets de recherche collaboratifs

Le projet européen CompanionAble [8] contribue à développer un robot de compagnie et un environnement domotique intelligents destinés à stimuler et à veiller sur des personnes dépendantes.

 

[1]      Viola P., Jones M., "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01) - Volume 1, pp.511, 2001; [doi: 10.1109/CVPR.2001.990517].

[2]      Moeslund T. B., Hilton A., Krüger V., “A survey of advances in vision-based human motion capture and analysis”, Computer Vision and Image Understanding, vol. 104, issues 2-3 , November-December 2006, pp. 90‑126; http://dx.doi.org/10.1016/j.cviu.2006.08.002.

[3]      Dornaika F., Ahlberg J., “Fast and reliable active appearance model search for 3-D face tracking”, IEEE transactions on Systems, Man, and Cybernetics, Part B, Aug. 2004, Volume: 34, Issue: 4, pp. 1838-1853; [doi: 10.1109/TSMCB.2004.829135].

[4]      Zhou D., Horain P., "Robust 3D Face Tracking on Multiple Users with Dynamical Active Models", The 15th International Multimedia Modeling Conference (MMM2009), 7-9 January 2009, EURECOM, Sophia Antipolis, France (11 pages).

[5]      Delamarre Q., Faugeras O., “3D Articulated Models and Multi-View Tracking with Physical Forces”, Computer Vision and Image Understanding, vol. 81, n° 3, p. 328–357, 2001; [doi: 10.1006/cviu.2000.0892].

[6]      Marques Soares J., Contribution à la communication gestuelle dans les environnements virtuels collaboratifs, thèse de doctorat de l'INT n°2004INT0002 soutenue le 9 juillet 2004, http://www-public.IT-SudParis.eu/~horain/MarquesSoares.

[7]      Allusse Y., Horain P., Agarwal A., Saipriyadarshan C. "GpuCV: An OpenSource GPU-Accelerated Framework for Image Processing and Computer Vision", Proceedings of the ACM Multimedia 2008, October 27-31, 2008, Vancouver, BC, Canada, pp. 1089-1092 [doi:10.1145/1459359.1459578]; http://picolibre.int-evry.fr/projects/gpucv.

[8]      The CompanionAble Project, http://www.companionable.net.