Notice
Glitter makes SPARQL : glitter, un package R pour explorer et collecter des données du web sémantique - PANELS
- document 1 document 2 document 3
- niveau 1 niveau 2 niveau 3
Descriptif
La collecte de données du web sémantique, qui sont formalisées selon le modèle RDF, nécessite l’élaboration de requêtes dans le langage dédié SPARQL. Ce langage, qui est aux données du web sémantique ce que SQL est aux bases de données relationnelles, a ainsi un objectif très spécifique et demeure assez méconnu des utilisateurs de données.
Au contraire, R est un langage de programmation assez généraliste puisqu’il permet de gérer de nombreux aspects de la chaîne de traitements de données, depuis leur recueil jusqu’à leur valorisation (par des modèles, graphiques, cartes, rapports, applications, etc.).
Le package glitter permet aux utilisateurs de R sans connaissance préalable de SPARQL (analystes de données, chercheurs, étudiants) d’explorer et collecter les données du web sémantique. Par des commandes R, l’utilisateur peut générer des requêtes SPARQL, les envoyer aux points d’accès de son choix, et recueillir les données correspondantes. Ces étapes sont ainsi intégrées à l’environnement R dans lequel l’utilisateur peut également réaliser les étapes d’analyse et de valorisation des données, dans une chaîne de traitement reproductible.
Lors de cette présentation, Lise Vaudor montrera les principales fonctionnalités du package glitter à partir d’exemples. Le package est toujours en développement mais il est fonctionnel, documenté et peut être installé par les participants qui souhaitent le tester en suivant les instructions décrites sur cette page.
Sur le même thème
-
Twitter et la linguistique située : réflexions méthodologiques à partir de l’exemple de tweets sur …
BachMatthieuDa CostaArnaudCette communication s’inscrit dans le cadre du projet de recherche interdisciplinaire POPSU visant à entre autres à analyser l’identité métropolitaine et identifier les intérêts des citoyens. Pour
-
Atelier Dialogu'IST #15 - Comment garantir l'intégrité scientifique des données ? Introduction
BorgetFabienPourquoi avons-nous besoin d’une bonne gestion des données de la recherche pour respecter l’intégrité scientifique ? Quelles méthodologies, recommandations et bonnes pratiques sont à mettre œuvre par
-
Qualité et accessibilité des données : des pratiques de recherche responsables, garantes de l’intég…
ChapinCaroleQualité et accessibilité des données : des pratiques de recherche responsables, garantes de l’intégrité scientifique ?
-
Open Science dans la physique des particules : un cas d'étude avec l'expérience ATLAS au LHC
CorpeLouieLe grand collisionneur de hadrons (Large Hadron Collider, LHC) du CERN a collecté un des plus grands dataset dans l'histoire de la science, grâce à ces détecteurs ATLAS, CMS, ALICE et LHCb. Cela a
-
Science ouverte, intégrité scientifique et données de la recherche dans le biomédical (Inserm)
DumontGwenaelLe partage des données dans la recherche biomédicale est complexe de part la nature de ces dernières. Bien comprendre les enjeux du partage et les modalités d'ouverture des données est souvent un
-
Comment garantir l’intégrité scientifique des données de recherche ? - Conclusions
BorgetFabienPourquoi avons-nous besoin d’une bonne gestion des données de la recherche pour respecter l’intégrité scientifique ? Quelles méthodologies, recommandations et bonnes pratiques sont à mettre œuvre par
-
Quand les métiers dialoguent ! Entre qualité des données et transparence de la démarche pour garant…
RenaultStéphaneCette présentation s'attachera à expliciter, à partir de plusieurs projets, comment la mise en application de la science ouverte pousse à la rencontre des métiers dès la mise en place des projets de
-
-
Données de la recherche et Wikidata
GodefroidCélianGossaJulienBeaudouinPierre YvesWikidata est une base de données structurées, libre, collaborative et exploitable pour de nombreux projets numériques et web.
-
Formation SIST R geoflow 19/06/23
HeintzWilfriedFormation à distance à l'outil R geoflow d'orchestration de flux de (méta)données
-
Panorama des formations au droit des données et des logiciels
BarrioAmélieAmélie BARRIO (co-responsable de l'URFIST Occitanie)
-
Publication de jeux de données dans le projet HiperBorea
OrgogozoLaurentHiperBorea est l'acronyme pour High Performance computing for quantifying climate chnage impacts on Boreal Areas.