Canal-U

Mon compte
Université Lille 2 Droit et Santé

2013 - Vision et regard - Du regard à l'interaction : l'apport de la robotique développementale


Copier le code pour partager la vidéo :
<div style="position:relative;padding-bottom:56.25%;padding-top:10px;height:0;overflow:hidden;"><iframe src="http://www.canal-u.tv/video/universite_lille_2/embed.1/2013_vision_et_regard_du_regard_a_l_interaction_l_apport_de_la_robotique_developpementale.12317?width=100%&amp;height=100%" style="position:absolute;top:0;left:0;width:100%;height: 100%;" width="550" height="306" frameborder="0" allowfullscreen scrolling="no"></iframe></div> Si vous souhaitez partager une séquence, indiquez le début de celle-ci , et copiez le code : h m s
Producteur Canal-U :
Université Lille 2 Droit et Santé
Contacter le contributeur
J’aime
Imprimer
partager facebook twitter Google +

Les chapitres


2013 - Vision et regard - Du regard à l'interaction : l'apport de la robotique développementale


Phillippe Gaussier est professeur à l'université de cergy-Pontoise où il dirige un groupe de neurocybernétique au sein de l’UMR CNRS 8051.
Ses recherches utilisent les robots comme modèles et outils pour étudier la cohérence et la dynamique de différents modèles cognitifs (approche écologique et développementale de la cognition). Elles concernent d’une part la modélisation des mécanismes cognitifs impliqués dans la perception visuelle, la navigation, la sélection de l’action et d’autre part l’étude de la dynamique des interactions entre individus.
Philippe Gaussier a été membre de l’Institut Universitaire de France de 2005 à 2010.
Explorer et reconnaître une scène visuelle est une question complexe que la modélisation sur ordinateur et la robotique développementale éclairent aujourd’hui d’une lumière nouvelle. Des expériences robotiques font ressortir l’intérêt d’une exploration active de la scène visuelle et de sa caractérisation en tant que séquence ou chemin entre différentes vues locales. Nous montrerons, à partir de tâches de navigation visuelle, de reconnaissance d’expressions faciales, et de préhension d’objets, comment les informations sur le « quoi » et le « où » peuvent être intégrées pour développer des systèmes robotiques robustes, mais aussi pour questionner notre compréhension des mécanismes cognitifs. Dans le cadre d’une approchedéveloppementale, nous proposons que les capacités d’imitation émergent de l’ambigüité de la perception.L’apprentissage de tâches de plus en plus complexes peut être réalisé par une architecture couplant de manière très simple les informations sensorielles aux commandes motrices, mais il faut pour cela tenir compte des interactions interindividuelles, qui peuvent grandement simplifier les problèmes.

 

commentaires


Ajouter un commentaire Lire les commentaires
*Les champs suivis d’un astérisque sont obligatoires.
Aucun commentaire sur cette vidéo pour le moment (les commentaires font l’objet d’une modération)
 

Dans la même collection

FMSH
 
Facebook Twitter Google+
Mon Compte