Le traitement automatisé du langage naturel: l’apport des transformers et les enjeux pour les sciences économiques
Charles Condevaux and
Stéphane Mussard
Additional contact information
Charles Condevaux: UNIMES - Nîmes Université
Post-Print from HAL
Abstract:
Suite à l'abandon progressif des réseaux de neurones récurrents au profit des transformers, la recherche en traitement du langage naturel se concentre depuis 2018 dans la construction de grands modèles de langue. Capables de tenir des conversations ou de résoudre des tâches complexes telles que la génération de résumé et la traduction, l'entraînement de ces architectures suit deux principes : une phase généraliste sur des corpus gigantesques puis une spécialisation sur des problématiques bien définies. Au coeur de ces modèles, le mécanisme d'attention permet le traitement de séquences de natures diverses (texte, audio, valeurs numériques) en connectant les éléments entre eux grâce à des matrices de scores. Cet article expose la méthode, l'architecture et les tâches réalisables par les transformers en sciences économiques.
Date: 2025-03-17
References: Add references at CitEc
Citations:
Published in Revue d'économie politique, 2025, Vol. 134 (6), pp.947-978. ⟨10.3917/redp.346.0947⟩
There are no downloads for this item, see the EconPapers FAQ for hints about obtaining it.
Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.
Export reference: BibTeX
RIS (EndNote, ProCite, RefMan)
HTML/Text
Persistent link: https://EconPapers.repec.org/RePEc:hal:journl:hal-05075552
DOI: 10.3917/redp.346.0947
Access Statistics for this paper
More papers in Post-Print from HAL
Bibliographic data for series maintained by CCSD ().