Vidéo pédagogique
Notice
Langue :
Français
Crédits
INRIA (Institut national de recherche en informatique et automatique) (Publication), Académie de Grenoble (Publication), Dominique Vaufreydaz (Intervention)
Conditions d'utilisation
Document libre, dans le cadre de la licence Creative Commons (http://creativecommons.org/licenses/by-nd/2.0/fr/), citation de l'auteur obligatoire et interdiction de désassembler (paternité, pas de modification)
DOI : 10.60527/crcf-5g47
Citer cette ressource :
Dominique Vaufreydaz. Inria. (2019, 16 janvier). Perception multimodale et interaction sociable. [Vidéo]. Canal-U. https://doi.org/10.60527/crcf-5g47. (Consultée le 15 octobre 2024)

Perception multimodale et interaction sociable

Réalisation : 16 janvier 2019 - Mise en ligne : 21 février 2018
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

Au cours des deux dernières décennies, de très nombreux progrèsont été faits dans le domaine de la perception par ordinateur, c’est-à-dire desalgorithmes permettant à ce dernier de percevoir, comme le ferait un humain,son environnement. Cette perception a tout d’abord été monomodale (visuelle ousonore par exemple) et est devenue fortement multimodale au fil du tempspermettant de nombreuses avancées, notamment grâce à l’avènement récent del’apprentissage profond (Deep Learning ).

Cette présentation s’attachera à dépeindre la perception multimodale aucours de ces deux décennies sous le prisme des travaux de recherche menés dansles équipes PRIMA et Pervasive Interaction d'Inria. Nous aborderons égalementles applications en interaction sociable homme/machine permises par cetteperception (espaces perceptifs multimodaux, robots compagnons, véhiculesautonomes)

 

 

 

 

Intervention

Avec les mêmes intervenants et intervenantes

Sur le même thème