Conférence
Notice
Lieu de réalisation
Ined, Campus Condorcet - Paris Aubervilliers
Langue :
Anglais
Crédits
Benoît Crabbé (Intervention)
Détenteur des droits
Benoît Crabé (Paris Cité Université)
Conditions d'utilisation
Droit commun de la propriété intellectuelle
DOI : 10.60527/s98e-1e52
Citer cette ressource :
Benoît Crabbé. Ined. (2024, 12 janvier). The origins of large language models: an historical perspective on computational language modeling , in Brainpower Meets Machine Power: Chat-GPT synergies with social scientists. [Vidéo]. Canal-U. https://doi.org/10.60527/s98e-1e52. (Consultée le 16 juin 2024)

The origins of large language models: an historical perspective on computational language modeling

Réalisation : 12 janvier 2024 - Mise en ligne : 31 janvier 2024
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

Séquence du séminaire les Rencontres de Statistique Appliquée 

Brainpower Meets Machine Power: Chat-GPT synergies with social scientists

Benoît Crabbé (Paris Cité University)

This talk will provide elements on the history of language modeling with the aim to shed light on the nature of current large language models. We start from the original insights of A. Markov, C. Shannon and W.Weaver and contrast them with the insights of N. Chomsky and symbolic AI. We will provide elements explaining the failure of symbolic AI for language and the generalization of statistical methods for language modeling. The last step of this evolution is the so-called deep learning paradigm that gave birth to current Large Language Models.

Intervention

Dans la même collection