TechniquesTransverse

Fine-tuning : définition
et applications métier

Définition

Le fine-tuning consiste à ré-entraîner un modèle IA pré-existant sur un jeu de données spécifique pour le spécialiser sur un domaine ou un style particulier — une technique avancée qui surpasse le prompting pour certains cas d'usage.

Fine-tuning : apprendre à l'IA votre métier

Un modèle généraliste comme GPT-4o est formidable pour les tâches variées, mais il ne connaît pas votre terminologie spécifique, votre style rédactionnel, ou les nuances de votre secteur. Le fine-tuning remédie à cela en ré-entraînant le modèle sur vos exemples.

L'analogie : recruter un consultant brillant (le modèle de base) puis lui faire suivre une immersion intensive dans votre entreprise (le fine-tuning). Il conserve toutes ses compétences générales et acquiert en plus votre spécificité métier.

Quand le fine-tuning a du sens

Cas d'usage adaptés :

  • Apprendre un style rédactionnel très spécifique (voix de marque forte)
  • Classifier des documents selon une taxonomie propre à votre secteur
  • Générer des réponses dans un format très structuré et répétitif
  • Réduire les tokens nécessaires (prompts plus courts → moins de coût)

Cas d'usage mal adaptés :

  • Injecter des connaissances factuelles récentes → préférer le RAG
  • Adapter l'IA à des données qui changent régulièrement → préférer le RAG
  • Tester rapidement une idée → préférer le prompting

Exemple pratique step-by-step

Fine-tuner GPT-3.5 pour classifier des candidatures :

Étape 1 — Constituer le dataset : rassembler 300-500 paires (extrait de CV → décision : À interviewer / À garder en attente / À refuser) de vos archives de recrutement.

Étape 2 — Formater en JSONL (format requis par OpenAI) :

{"messages": [{"role": "user", "content": "[extrait CV anonymisé]"}, {"role": "assistant", "content": "À interviewer — Profil senior avec expérience pertinente en B2B SaaS, compétences techniques correspondantes."}]}

Étape 3 — Uploader et lancer : via platform.openai.com, uploader le fichier JSONL et lancer le fine-tuning (~20-40 min).

Étape 4 — Évaluer : tester sur 50 CVs non vus pendant l'entraînement. Comparer avec les décisions humaines.

Étape 5 — Déployer : intégrer via l'API dans votre processus de tri.

Résultat attendu : cohérence supérieure au prompting seul, décisions proches de celles de votre meilleur recruteur.

Applications par métier

Ressources Humaines

Fine-tuner un modèle sur vos évaluations de performance passées peut améliorer la cohérence et la pertinence des évaluations générées par l'IA. Mais le volume de données nécessaire (centaines d'exemples annotés) rend souvent le RAG plus pragmatique pour les PME.

Marketing

Fine-tuner un modèle sur votre corpus de contenus validés (articles, emails, posts) pour qu'il apprenne votre voix de marque avec précision. Pertinent si vous produisez des dizaines de contenus par semaine et que le prompting seul ne suffit pas à maintenir la cohérence.

Commercial

Fine-tuner sur vos meilleurs emails commerciaux et argumentaires pour créer un modèle qui génère des messages dans le style de vos meilleurs vendeurs. Nécessite un volume suffisant d'exemples de haute qualité (~500 minimum).

Questions fréquentes

Quand choisir le fine-tuning plutôt que le RAG ?

Fine-tuning quand : 1) Vous voulez enseigner un style ou un comportement (pas des faits), 2) Votre cas d'usage a besoin de réponses très rapides (le fine-tuning permet des prompts plus courts), 3) Vous avez des centaines d'exemples labeled de haute qualité. RAG quand : 1) Vous voulez ancrer l'IA dans des documents factuels, 2) Vos données changent fréquemment, 3) Vous n'avez pas les ressources pour annoter des données d'entraînement.

Combien coûte le fine-tuning ?

Via l'API OpenAI, fine-tuner GPT-3.5-turbo coûte ~8$ par million de tokens d'entraînement. Un dataset de 500 exemples de ~500 tokens chacun = ~250k tokens = ~2$ d'entraînement. Le modèle fine-tuné coûte ensuite plus cher à l'usage que le modèle de base (environ 3-4x). Pour des besoins plus importants, des modèles open-source (Llama, Mistral) peuvent être fine-tunés sur votre propre infrastructure.

Le fine-tuning est-il accessible sans équipe technique ?

GPT-3.5 fine-tuning via l'interface OpenAI est accessible sans code (upload d'un fichier JSONL, lancement en clic). Mistral fine-tuning via leur plateforme également. Mais préparer les données d'entraînement (format correct, exemples de qualité) reste exigeant. Comptez 1-2 jours de travail pour préparer un bon dataset de 200-500 exemples.

Termes liés