Cours/Séminaire
Notice
Lieu de réalisation
Site Pouchet CNRS
Langue :
Français
Crédits
Jean-Marc Deltorn (Intervention)
Conditions d'utilisation
CC BY 3.0 FR
Citer cette ressource :
Jean-Marc Deltorn. CNRS_Pouchet. (2023, 23 avril). « Transparence(s) et opacité(s) » – entre dévoilement et secret, l’IA et le traitement algorithmique des données. [Vidéo]. Canal-U. https://www.canal-u.tv/139355. (Consultée le 20 juillet 2024)

« Transparence(s) et opacité(s) » – entre dévoilement et secret, l’IA et le traitement algorithmique des données

Réalisation : 23 avril 2023 - Mise en ligne : 25 avril 2023
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

Jean-Marc Deltorn (CEIPI, Université de Strasbourg)
« Transparence(s) et opacité(s) » – entre dévoilement et secret, l’IA et le traitement algorithmique des données

Les données, notamment de santé, sont au cœur d’une nouvelle économie de la prédiction et du contrôle. Ces données représentent la matière première à partir de laquelle des algorithmes catégorisent les individus, en suivent les comportements et permettent de produire de nouvelles formes de services. L’exploitation à grande échelle de ces données – personnelles et non personnelles – au moyen des dernières générations d’applications d’apprentissage automatique et d’« intelligence artificielle » pose aujourd’hui des défis sans précédent au croisement d’enjeux de gouvernance, éthiques, psychologiques, économiques, juridiques et techniques.
Face à ces développements et confrontée à l’opacité (technique et commerciale) des processus de traitement de l’information, la notion de transparence s’est imposée comme l’une des valeurs fondamentales promues par l’UE pour le développement, le déploiement et l’utilisation des systèmes prédictifs basés sur les données. Déjà un élément incontournable du Règlement général sur la protection des données et du Livre blanc sur l’IA publié par la Commission européenne en février 2020, la première proposition législative de l’UE en la matière – la proposition de règlement sur l’intelligence artificielle de la Commission européenne (l’AI Act) – poursuit cette tendance et donne à la transparence une place centrale en incluant plusieurs articles qui lui sont explicitement consacrés. De fait, au-delà même de ces textes et des contraintes légales qu’ils imposent, la transparence semble s’être érigée au niveau d’une exigence morale.
Or, la transparence des systèmes de traitement de données connaît des limites qu’il nous faudra souligner. Limites intrinsèques, liées à l’interprétation et à la variété des sens associés à cette notion fort large, d’une part. Limites pratiques, également, dans sa mise en œuvre réglementaire et technique. Ainsi, après avoir évoqué la place d’un principe de transparence dans le paysage juridique européen, nous présenterons quelques-unes des contraintes s’opposant à son application à l’encadrement du traitement des données et à l’accès à la logique sous-jacente aux modèles prédictifs.

Intervention

Avec les mêmes intervenants et intervenantes

Sur le même thème