FondamentauxTransverse

Token : définition
et applications métier

Définition

Un token est l'unité de base que les LLM utilisent pour traiter le texte. En français, un token correspond environ à ¾ d'un mot. Les limites et coûts des modèles IA sont exprimés en tokens.

Les tokens : la monnaie des LLM

Quand vous interagissez avec ChatGPT, vous ne communiquez pas directement en mots ou en phrases. Le modèle travaille avec des tokens — des fragments de texte qui peuvent être des syllabes, des mots entiers ou des groupes de lettres courants.

Pourquoi cette granularité ? Parce que le réseau de neurones prédit le prochain token, pas le prochain mot. Cette architecture permet une flexibilité remarquable : gérer les néologismes, les fautes d'orthographe, le code informatique, les langues rares, les emojis.

Comprendre la tokenisation en pratique

Le mot "formation" est un seul token en anglais ("formation") mais peut en être 2 en français selon le contexte ("forma" + "tion"). Les mots rares ou longs sont souvent découpés en plusieurs tokens.

Conséquences pratiques :

  • Les textes français consomment ~20% plus de tokens que les textes anglais équivalents
  • Le code informatique est généralement très efficace (peu de tokens par information)
  • Les symboles spéciaux et la ponctuation comptent comme des tokens

Exemple pratique step-by-step

Estimer le coût d'un projet RAG sur vos documents internes :

Étape 1 — Inventorier vos documents : 200 pages de documentation interne = ~140 000 tokens

Étape 2 — Calculer le coût d'indexation : avec text-embedding-3-small d'OpenAI (0,02$ pour 1M tokens) → 0,0028$ pour indexer tous vos documents. Négligeable.

Étape 3 — Estimer le coût d'usage quotidien : 50 questions/jour × 500 tokens/question (prompt + contexte RAG) + 300 tokens/réponse = 40 000 tokens/jour. Avec GPT-4o-mini : ~0,05$/jour. Avec GPT-4o : ~0,50$/jour.

Étape 4 — Comparer avec le coût actuel : si votre équipe passe 30 min/jour à chercher dans la documentation, le ROI est immédiat même avec GPT-4o.

Conclusion : le coût en tokens est rarement le facteur limitant. La vraie décision est sur la qualité du modèle et la conformité des données.

Applications par métier

Ressources Humaines

Comprendre les tokens permet de gérer les coûts si votre équipe utilise l'API OpenAI. Un CV de 2 pages représente environ 1 000 tokens. Analyser 100 CVs avec GPT-4o coûte environ 0,40€ — sans compter les réponses générées.

Marketing

Pour la production de contenu, connaître les limites de tokens évite les articles tronqués. Un article de 1 000 mots = ~1 300 tokens. ChatGPT Plus (128k tokens de contexte) peut tenir un brief complet + 3 articles existants + la demande en une session.

Commercial

Dans un CRM avec IA intégrée, les appels de vente transcrits peuvent dépasser la fenêtre contextuelle du modèle. Savoir qu'un appel de 60 minutes transcrit représente ~12 000 tokens permet d'anticiper les limites et de segmenter intelligemment.

Questions fréquentes

Comment savoir combien de tokens représente mon texte ?

OpenAI propose un tokenizer en ligne (platform.openai.com/tokenizer) qui compte les tokens de n'importe quel texte. Règle approximative : 1 page Word (environ 500 mots français) = 650-700 tokens. Un email standard = 100-200 tokens. Un rapport de 50 pages = 35 000-40 000 tokens.

Qu'est-ce que la 'fenêtre contextuelle' en tokens ?

La fenêtre contextuelle est la quantité maximale de texte (prompt + réponse) que le modèle peut traiter en une fois. GPT-4o : 128k tokens (~100 000 mots). Claude 3.5 Sonnet : 200k tokens (~150 000 mots). Au-delà, le modèle 'oublie' les informations les plus anciennes de la conversation. C'est pour ça qu'un très long chat peut voir l'IA oublier ce qu'on lui a dit au début.

Les tokens coûtent-ils cher ?

Pour les interfaces grand public (ChatGPT Plus à 20€/mois), le coût par token est inclus dans l'abonnement. Via l'API, les prix varient : GPT-4o coûte environ 0,005$ par 1k tokens en entrée et 0,015$ en sortie. Pour un usage intensif (analyse de milliers de documents), le coût peut devenir significatif. Les modèles open source comme Mistral ou Llama, hébergés localement, n'ont pas de coût par token.

Termes liés