Notice
« Quand une édition numérique devient-elle “critique” ? » (mars 2021)
- document 1 document 2 document 3
- niveau 1 niveau 2 niveau 3
Descriptif
Marie-Luce Demonet (Université de Tours, CESR), « Quand une édition numérique devient-elle “critique” ? »
Le site Epistemon a maintenant plus de vingt ans : quelles leçons tirer d’une expérience qui a commencé avec des transcriptions non-diplomatiques et se poursuit avec l’encodage fin des spécificités du texte, comme les différentes formes d’esperluette ? Jusqu’où aller dans la visualisation des variations (édition génétique) qui relèvent ou non de la critique textuelle ? Outre un état des lieux et une description des principes (évolutifs) qui ont guidé le développement de ce projet, l’idée est de faire le point sur quelques éditions critiques numériques actuellement disponibles, de commenter leurs choix, leur accessibilité, leur réutilisabilité par d’autres projets : bien souvent, plus l’édition est chargée d’information, moins elle est exploitable par les outils numériques et par autrui. Le renoncement à toute annotation étrangère à l’établissement du texte et à la cohérence linguistique peut décevoir, mais les formats mis à disposition, et en particulier le fichier xml/tei téléchargeable, laissent la possibilité de revenir en arrière, de simplifier autant que d’amplifier. Les questions de droits, de coût en ressources techniques et humaines — et de valorisation auprès d’un public non-universitaire — ayant un impact sur les réalisations, elles seront abordées à partir des éditions en cours de Rabelais (Cinquième livre manuscrit, vers 1560) et Montaigne (édition posthume des Essais, 1595) qui posent des problèmes d’authenticité, d’attribution et de chronologie : l’édition numérique peut tenter d’apporter des solutions.
• Projets BVH
https://bvh.hypotheses.org/projets
• Partenaires BVH
CESR (Centre d’Études Supérieures de la Renaissance)
IRHT (Institut de Recherche et d’Histoire des Textes)
• Ressources
AnaLog : outil de textométrie qui permet la lecture linéaire ou synthétique de textes annotés, les inventaires et décomptes d’unités linguistiques, leur contextualisation simultanée sur les axes paradigmatique et syntagmatique ; il est développé par Marie-Hélène Lay (Laboratoire FORELL, Université de Poitiers).
Hyperbase : logiciel d'exploration documentaire et statistique des textes ; il est diffusé par le CNRS et l'Université Nice Sophia Antipolis, conçu et développé par Étienne Brunet.
IIIF (International Image Interoperability Framework) : outil qui désigne à la fois une communauté et un ensemble de spécifications techniques, dont l’objectif est de définir un cadre d’interopérabilité pour la diffusion d’images haute résolution sur le Web.
Lucene : bibliothèque de moteur de recherche haute performance, écrite en Java.
PhiloLogic : logiciel d’interrogation des bases textuelles utilisant partiellement l’encodage TEI ; il est développé par l’Université de Chicago.
TXM : plateforme d’affichage et de traitement de données textuelles ; elle est développée par Serge Heiden (laboratoire IHRIM, équipe CACTUS, ENS Lyon).
XSLT (Extensible Stylesheet Language Transformations) : langage basé sur le XML utilisé avec des logiciels de traitements spécialisés pour la transformation de documents XML.
XTF : système de gestion et d’interrogation des métadonnées et des bases tous formats ; il est développé par l’Université de Berkeley.
Vidéo mise en ligne par Juliette Keller, métadonnées par Michela Lagnena sur UHAPOD en 2021, contenu téléversé sur Canal-U par Alicia Balasso en 2023.
Avec les mêmes intervenants et intervenantes
-
« La bibliothèque de Montaigne : explorer et ressentir le lieu, ouvrir et comprendre les livres » (…
DemonetMarie-LuceLegrosAlainLa reconstitution de la bibliothèque de Montaigne (le lieu, les étagères et les livres) a déjà presque dix ans : seront présentées non seulement les différentes étapes et l’historique du projet avant
Sur le même thème
-
Créer et télécharger son corpus
HuguinMathildeBarreauxSabineInterview Sabine Barreaux et Mathilde Huguin | Créer et télécharger son corpus avec le service ISTEX Search
-
Explorer et analyser son corpus
RevolJustineInterview Valérie Bonvallot et Justine Revol | Explorer et analyser son corpus avec l'outil Lodex et les web services ISTEX
-
Extraire l'information
Interview Mouhamadou Ba | L’extraction d’information et l’annotation sémantique avec le logiciel Alvis NLP
-
Analyser un corpus de textes
HeidenSergeInterview Serge Heiden | Analyser un corpus de textes avec le logiciel de textométrie TXM
-
ANR PORTIC - Partie I : « Naviguer avec la base de données PORTIC » (coordinatrice : Christine Plum…
PlumejeaudChristineSofiaPierre NiccolòJournée de restitution du projet ANR PORTIC
-
ANR PROTIC - Introduction
MarzagalliSilviaJournée de restitution du programme ANR PORTIC - Introduction
-
ANR PORTIC - Partie II : « Projet PORTIC : négocier l’écriture d’une enquête » (coordinateur : Robi…
MouratRobin deCharlesLoïcMarzagalliSilviaGirardPaulMazoyerBéatriceJournée de restitution du programme ANR PORTIC
-
L’apport des Humanités numériques à la recherche historique : SIG et Web sémantique en Centre Viet…
SchweyerAnne-ValérieMermetEricAnalyse du paysage au Centre Vietnam via des annotations sur cartes et photos dans Oronce Fine.
-
Cartes en ligne : un outil de science ouverte
BayoumiHalaCartes en ligne : un outil de science ouverte
-
Les outils de géolocalisation du consortium Huma-Num Projets Time Machine
MermetEricLes outils de géolocalisation du consortium Huma-Num Projets Time Machine
-
Gallicarte : Géolocaliser les documents numérisés de BnF Gallica
Gallicarte : Géolocaliser les documents numérisés de BnF Gallica
-
En quoi l’IA transforme les pratiques dans l’enseignement supérieur et la recherche
GanasciaJean-GabrielConférence inaugurale de rentrée des Écoles Doctorales de l'Université Toulouse - Jean Jaurès donnée par le professeur Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle, des humanités