Fermer

28 février 2017:  Conférencier invité, Dominique Labbé (Grenoble)

 "Jean Racine, plume de l'ombre"

J. Racine a produit - sous son nom - onze tragédies dont certaines continuent à être jouées aujourd'hui. En 1677, il entre au service du roi et abandonne le théâtre ne sortant de sa réserve qu'à deux reprises (Esther et Athalie). Pourtant, en 1695, le Père Colonia - lui-même dramaturge - affirme que J. Racine continue à produire des pièces et que J.-G. Campistron est son prête-nom. L'attribution d'auteur assistée par ordinateur permet de vérifier la réalité de ces affirmations. Au total, 14 tragédies viennent s'ajouter au corpus racinien. Certaines ont été de très grands succès et méritent d'être redécouvertes.

 

7 mars 2017:  Martin Hilpert, "Les aventures d'Alice dans les espaces sémantiques"

Dans cette intervention, je vais discuter la construction et l'utilisation des espaces vectoriels sémantiques. Bien que cette méthode soit souvent utilisée pour la comparaison sémantique des mots, je vais présenter une nouvelle application qui permet la visualisation de la polysémie et du chevauchement sémantique des mots.

 

14 mars :  Corinne Rossari, "L’utilisation des méthodes quantitatives pour le classement des adverbes épistémiques"

Le paradigme des adverbes épistémiques en français est riche et varié (peut-être, probablement, certes, sans doute, certainement...). Dans cette présentation nous verrons comment utiliser des méthodes statistiques pour faire ressortir des convergences entre adverbes, qui vont au-delà de la spécification épistémique (degré de certitude)  qu’ils signalent à propos d’un état de choses.

 

21 mars : Susanne Flach, "The go-verb construction in English"

What syntactic environment can tell us about meaning and form English go-verb  is only used with both verbs in bare form: while it is typically found in expressions like Let’s go have lunch, Go get the nurse! or They told him to go see an advisor, it does not occur with inflections (*He goes gets the paper, *They are going seeing the movie). What seems like a rather bizarre restriction at the level of individual tokens (‘from below’) becomes much less inexplicable if seen from a distributional perspective (‘from above’). Similar to collocational techniques used in approaching word meaning, the syntactic environment that the construction occurs in provides insights into the construction’s meaning and hence its morphological behaviour.

 

28 mars : Ljiljana Dolamic, "Measuring words association – how to formulate the question, choose the measure and interpret the results"

Co-occurrence of words can be defined as adjacency or proximity, occurrences within the same linguistic unit such as sentence or as a specific structural relationship between the words.  Most widely used method for distinguishing between random co-occurrences and true statistical association is the application of so-called association measures. The main questions one may ask are: What is the co-occurrence type I am interested in? How to prepare my data? Which association measure will give me the correct answer? In this presentation I will try to give the answers to these questions.

 

4 avril : Jacques Savoy, "Les discours politiques américains analysés par ordinateurs"

Avec la mise à disposition de volumes considérables d’information textuelle, l’être humain doit pouvoir s’appuyer sur des outils du traitement automatique de la langue (TAL) afin de l’aider dans sa quête ou en extraire des vues synthétiques.  Dans cette présentation, nous vous proposons un petit voyage parmi quelques outils du TAL (extraction, classification et catégorisation automatique) sur la base des discours des présidents américains de G. Washington, (1789) à B. Obama (2015).   Sur la base de ce corpus couvrant un peu plus de deux siècles, nous allons pouvoir illustrer quelques changements de style au moyen d’outils très simples.  En définissant le vocabulaire spécifique d’une personne ou d’un genre, nous pouvons discerner plus aisément les différences entre auteurs ou d’analyser l’évolution de la fréquence d’usage de certains termes.   En se fondant sur une mesure de distance entre documents, on peut constater que F.D. Roosevelt a profondément changé le style politique ou que la présidence de G. Bush (fils) peut se subdiviser en deux périodes.  En appliquant ces outils sur la dernière campagne présidentielle américaine, nous pourrons constater qu’il existe une différence nette entre D. Trump en interview et D. Trump prononçant un discours, différence que l’on ne retrouve pas chez H. Clinton.

 

25 avril : Yves Tillé,  "Modélisation des noms des revues potentiellement prédatrices de la liste de Jeffrey BeallSur son site Web, Jeffrey"

Beall a proposé une liste de journaux scientifiques potentiellement prédateurs. Ces journaux sont soupçonnés de publier en accès libre des articles moyennant paiement sans respecter les standards scientifiques. Les noms de ces revues sont comparés à la liste des revues du site « Web of Science » de Thomson Reuter. A l'aide des méthodes statistiques du lasso et de la régression logistique, on identifie une liste de mots qui permet de prédire relativement bien à quelle liste appartient un journal en utilisant uniquement son nom. Les titres des revues prédatrices contiennent plus souvent des termes vagues comme «advanced», «research», «international» ou «sciences». Certains noms de journaux sont si caractéristiques qu'il est possible de prédire presque avec certitude qu'ils sont de possibles prédateurs.

 

2 mai : Anna-Maria De Cesare et groupe de recherche FNS ISAaC (Université de Bâle), "Les adverbiaux de phrase: analyses quantitatives et qualitatives de données tirées de corpus de textes journalistiques"

Le propos de l’exposé est de décrire  la catégorie des 'adverbes de phrase' et de présenter une sous-classification valable d'un point de vue interlinguistique, fondée sur une analyse qualitative et quantitative. Nous présenterons nos corpus de travail, notamment un corpus de textes journalistiques multilingue de cinq langues européennes (italien, français, espagnol, allemand, anglais), puis les méthodes et les résultats d'une analyse quantitative; ces résultats seront approfondis au moyen d’une analyse qualitative (propriétés formelles et fonctionnelles) de quelques adverbiaux de phrase. 

 

9 mai : Carine Skupen-Dekens, "Utiliser et améliorer les outils numériques avec les corpus historiques"

Sur la base d’exemples de traitement de corpus en français classique et préclassique, la chaîne de traitement des textes sera présentée, de la saisie (ou numérisation automatique, selon les cas) à l’annotation et à l’interrogation, à l’aide des outils existants. On abordera les spécificités du travail dues aux anciens états de langue, les difficultés concrètes rencontrées dans la constitution et l’exploitation des corpus et ce que l’on peut apprendre de ces difficultés, du point de vue épistémologique ou pratique.  

 

16 mai : Elena Smirnova, "Collostructional analysis in diachronic studies"

Collostructional analysis is a family of corpus-linguistic methods for studying relationships between words and constructions they appear in. In my talk, I will introduce three variants of collostructional analysis, i.e. the simple collexeme analysis, the covarying collexeme analysis, and the distinctive collexeme analysis. Though these methods have been usually applied to synchronic corpus data, I will show how they can be employed diachronically.

 

23 mai : Alain Kamber,  "De l’outil descriptif à l’outil didactique : les corpus dans l’enseignement / apprentissage des langues vivantes"

La linguistique de corpus permet de préciser, affiner ou même corriger les représentations de la langue dans les dictionnaires, les grammaires et les manuels. Dans le domaine de la didactique des langues étrangères, elle permet aussi d’analyser plus finement l’interlangue, par l’utilisation de corpus d’apprenant-e-s, et donc de sensibiliser les enseignant-e-s de langue aux problèmes rencontrés par un groupe particulier d’apprenant-e-s (en fonction de leur niveau, leur L1, etc.). Cependant, au vu des préoccupations actuelles de la didactique des langues (authenticité, autonomisation, comparaison des langues) et de l’existence d’un monde désormais connecté, le défi est l’utilisation de corpus en classe, soit la confrontation de l’apprenant-e avec du matériel langagier authentique dans une approche inductive procédant par observation, découverte et vérification. Cette stratégie de « data-driven learning » (‘apprentissage autonome sur corpus’) se fixe pour but de mieux répondre aux besoins particuliers de l’apprenant-e face à un problème défini, de tenir compte des caractéristiques de sa L1 et de mettre à profit ses compétences plurilingues. En partant d’un cas spécifique, celui d’apprenant-e-s du français germanophones dans un contexte de traduction allemand-français, nous tenterons de cerner quelques sources d’erreurs récurrentes dans le domaine du lexique-grammaire et montrerons comment le recours à des corpus électroniques peut permettre d’y remédier.

 

2 novembre : Sascha Diwersy et Giancarlo Luxardo,  "Exploration de corpus de grandes dimensions pour étudier l'émergence d'emplois en discours"