Passer au contenu principal

Qu’est-ce qu’un Large Language Model (LLM) ?

Mis à jour hier

Comprendre les Large Language Models (LLM)

Vous avez sans doute déjà entendu le terme « Large Language Model » (LLM) en parlant d’intelligence artificielle générative. C’est la technologie qui alimente les assistants conversationnels comme le Chat. Mais qu’est-ce qu’un LLM, exactement ?

Qu’est-ce qu’un LLM ?

Un LLM est un type d’intelligence artificielle entraîné pour comprendre et générer le langage humain. On peut le voir comme un modèle statistique très sophistiqué qui prédit des mots et des phrases à partir de modèles linguistiques qu’il a appris.

Découpons ce terme mot par mot :

« Large » — qu’est-ce que cela signifie ?

Le mot « Large » fait référence à deux aspects principaux :

  1. L’immense quantité de données sur lesquelles le modèle est entraîné : des milliards de pages provenant de livres, d’articles, de sites web, etc.

  2. Le nombre colossal de paramètres qu’il contient. Ces paramètres sont comme des « curseurs internes » que le modèle ajuste pendant l’entraînement pour comprendre comment fonctionne le langage.

« Language » — ce que fait le modèle

Le but du modèle est de manipuler le langage.

En analysant les données sur lesquelles il est entraîné, il apprend la grammaire, le vocabulaire, les faits, les styles de raisonnement et même les nuances de la conversation.

« Model » — en quoi est-il différent d’un moteur de recherche ?

Un LLM n’est ni une base de données ni un moteur de recherche. C’est un « modèle » parce qu’il construit une représentation interne du langage.

Contrairement aux humains, il ne « sait » rien ; il prévoit simplement le mot le plus probable à venir dans une séquence, avec une précision impressionnante.

Comment cela fonctionne-t-il ? (Exemple simple)

Imaginons que vous vouliez compléter la phrase : « Le chat est assis sur le ___ ».

Avec vos connaissances linguistiques, vous proposeriez probablement des mots comme « tapis », « canapé » ou « sol ». Ces mots sont cohérents sur le plan grammatical et contextuel.

Un LLM fonctionne de manière similaire, mais à une échelle gigantesque, avec des milliards de connexions.

Lorsque vous lui donnez un prompt (une question ou une instruction), il utilise son entraînement pour calculer la suite de mots la plus probable afin de produire une réponse cohérente et pertinente.

Il génère la réponse mot par mot (plus précisément token par token, qui sont souvent des subdivisions de mots), chaque mot influençant le suivant.

🔑 Un LLM est fondamentalement un moteur de prédiction de texte. Sa capacité à traduire, résumer, rédiger du code ou converser découle toutes de cette compétence centrale : prédire le mot suivant dans un contexte donné.

En s’entraînant sur d’immenses volumes de texte produit par des humains, les LLM parviennent à reproduire les structures du langage avec une telle finesse que leurs réponses peuvent paraître créatives, informatives et étonnamment humaines.

Avez-vous trouvé la réponse à votre question ?