Du 25/04/2013 Au 25/04/2013

Séance de séminaire de Cortext Lab : Textométrie et visualisation des connaissances

Dans le cadre de la huitième séance du séminaire de Cortext Lab, nous avons le plaisir d’accueillir deux intervenants Alain Lelu (Université de Franche-Comté, en délégation à Institut des Sciences de la Communication du CNRS) et Jean-Marc Leblanc (Univ. de Paris-Créteil), qui nous parlerons de textométrie et de visualisation des connaissances.

Cette matinée aura lieu le jeudi 25 avril de 10h à 13h, dans la salle de réunion C219 du Latts (Université Paris-Est Marne la Vallée – rue Galilée, bâtiment du Bois de l’Etang – 2ème étage – aile C). Voir plan ci-joint.

 

Alain Lelu , ISCC et  associé au LORIA (équipe KIWI)
Les 15 ans qui ont changé le monde de la recherche d’information : réflexions rétrospectives d’un défricheur

Alain Lelu, actif dans le domaine de l’analyse de données textuelles et de la documentation numérique depuis 1988, est à l’origine de deux réalisations : en 1998, la version 1 de l’environnement d’indexation assistée et cartographie de l’information NeuroNav ; en 2000, le prototype de moteur de recherche NeuroWeb. Il passera en revue, dans sa première intervention, les fonctions de base des interfaces de recherche d’information, et montrera comment celles-ci, initialement solutions à des problèmes ergonomiques et techniques, se sont trouvées au cœur d’enjeux culturels et économiques, voire politiques, massifs, désormais à l’échelle planétaire. Par exemple, l’extraction et l’unification de termes simples et composés, fonction essentielle pour un accès aux textes qui fasse sens, se trouve sous la contrainte de la valorisation marchande des mots de la langue opérée par AdWords de Google.
Il décrira les questions toujours en suspens, et ses recherches sur certaines d’entre elles, comme celle de déterminer comment couper au mieux une expression composée en voie de figement, qu’il éclairera à partir de la détection d’interactions entre variables binaires – problème qui échappe aux analyses de données classiques. Les limites actuelles des procédures de clustering et la quête de solutions seront abordées dans une deuxième présentation.

—————————————————————-

Jean-Marc Leblanc – UPEC – Céditec (EA 3119)- Equipe Textopol
Pour une textométrie expérimentale : propositions de visualisations pour l’analyse des corpus textuels

Nous présenterons les travaux de l’équipe Textopol du Céditec en matière d’analyses lexicométriques et textométriques et ferons plus particulièrement état des développements de TextObserver outil d’exploration des données textuelles multidimensionnelles et multimodales, conçu par notre équipe de recherche.
L’expertise du Céditec et de sa composante Textopol en matière d’outils d’analyse lexicale nous a en effet conduits à réfléchir à l’ergonomie des logiciels du domaine, aux phénomènes de visualisation, puis à développer Textobserver à la fois pour la recherche et la formation à la recherche.
Alors que la réflexion sur la visualisation est au cœur de disciplines parfois émergentes (Data visualisation, visualisation d’information, infovisualisation…) que le web véhicule un grand nombre de représentations souvent sophistiquées, les outils textométriques ont longtemps fonctionné sur des modèles éprouvés depuis longtemps mais reposant quasi-essentiellement sur des visuels statiques, issus directement des statistiques, offrant peu de prise à la manipulation et à l’expérimentation, et souvent peu aboutis sur le plan de l’ergonomie.
Parallèlement à cela et plus récemment, de nombreux outils de visualisation se développent qui ne sont pas directement dédiés à la textométrie mais introduisent de nouveaux modèles, souvent esthétiques mais qui nécessitent de nouveaux apprentissages pour la lecture et l’interprétation, quand ils ne créent pas tout simplement du bruit.
TextObserver est fondé initialement sur des préoccupations ergonomiques. Il propose des fonctionnalités originales sur le plan de la visualisation, rendues explicites par l’interactivité, et du traitement dynamique des données et des résultats textométriques. Il rend possible l’intégration de données textuelles diversifiées dans un cadre multimédia.
Il répond en temps réel aux questionnements expérimentaux comme les facteurs de la variation discursive.
Nous en présenterons les principes essentiels en prenant pour terrain d’expérimentation un corpus constitué de discours politiques rituels, (vœux de présidents de la cinquième République, de 1959 à 2012).
http://textopol.u-pec.fr/textobserver
http://ceditec.u-pec.fr
http://textopol.u-pec.fr

Download

  • Cite-DESCARTES
  • ⬆️