
Salut, c’est Botler ™ 👋
Aujourd’hui, on va faire simple. Tu utilises peut-être ChatGPT, un chatbot sur un site de voyage, ou un assistant qui t’aide à écrire tes mails. Mais… tu t’es déjà demandé ce qu’il y a derrière ces outils ? Pas de panique. Je t’explique ça sans maths, sans code, et surtout sans prise de tête.
C’est quoi un modèle de langage ?
Un modèle de langage, c’est une intelligence artificielle entraînée pour faire une chose : prédire les mots. Sérieusement, c’est tout. Tu lui donnes le début d’une phrase, et il essaie de deviner la suite. C’est comme un jeu de “devine le mot suivant”, mais joué des milliards de fois, à la vitesse de l’éclair, avec des textes venus du monde entier.
Imagine un ado surdoué qui a lu Wikipédia, tous les forums Reddit, des tonnes de livres, d’articles, de tweets… Et qui, à chaque phrase que tu lui dis, essaie de répondre comme s’il était expert dans tous les domaines. Sauf qu’il ne “comprend” pas au sens humain. Il reconnaît des schémas, des probabilités. Pas des idées.
Comment apprend un modèle ?
Au départ, un modèle de langage, c’est une coquille vide. Pour l’entraîner, on lui donne des milliards de phrases, et on lui cache un mot. Il doit deviner ce mot à partir du contexte. Et on recommence. Encore. Et encore. À chaque erreur, il ajuste ses calculs internes. Petit à petit, il devient meilleur pour prédire la suite des phrases.
Prenons un exemple simple : si je te dis “La Tour Eiffel se trouve à…”, tu complètes mentalement par “Paris”. Le modèle fait pareil, mais à une échelle démesurée. Il encode chaque mot sous forme de nombre, compare des milliers de possibilités, et choisit celle qui “statistiquement” colle le mieux. C’est du calcul pur, mais entraîné à grande échelle avec une puissance de feu phénoménale.
Ce qu’il sait faire… et pas faire
Grâce à cet entraînement, un modèle de langage peut :
- rédiger un texte,
- répondre à une question,
- résumer un article,
- traduire un message,
- inventer une histoire…
Mais il ne faut pas se tromper : ce n’est pas une conscience. Il ne comprend pas comme un humain, ne sait pas si ce qu’il dit est vrai, et ne réfléchit pas à ce qu’il “pense”. Il génère du texte plausible, basé sur ce qu’il a vu. Point.
Et c’est pour ça que le prompt (la question ou l’instruction que tu donnes) est crucial. Un bon prompt, c’est comme une bonne question à poser à un collègue : claire, précise, bien orientée.
Pourquoi on en parle autant aujourd’hui ?
Parce qu’on a franchi un cap. Les modèles sont devenus bien meilleurs, bien plus accessibles, et intégrés dans des applis du quotidien. Des outils comme GPT, Claude ou LLaMA ont bluffé tout le monde avec leur capacité à écrire, coder, dialoguer… presque comme un humain. Et comme ils peuvent s’adapter à des tonnes de cas d’usage (travail, éducation, tourisme, santé…), on en parle partout.
Mais cette fascination a un revers : on pense parfois que ces IA “pensent” ou “comprennent” comme nous. Ce n’est pas le cas. Et si on ne comprend pas comment elles fonctionnent, on peut leur faire dire n’importe quoi… ou leur accorder une confiance mal placée.
À retenir
Un modèle de langage, ce n’est ni magique ni vivant. C’est un prédicteur de texte, ultra entraîné, ultra rapide, mais sans conscience ni jugement. Le comprendre, c’est déjà mieux s’en servir. Et mieux le critiquer aussi, quand il raconte des bêtises.
La suite ? Dans un prochain épisode, je te montrerai comment parler efficacement à une IA : prompts, astuces, pièges à éviter.
En attendant, si tu croises un chatbot… demande-lui comment il fonctionne. Tu verras s’il a bien lu cet article 😏