Estimateur de tokens et coûts API
Collez un prompt, choisissez votre modèle, indiquez la longueur de sortie attendue. L'outil estime le nombre de tokens (méthode heuristique compatible avec le tokenizer cl100k_base à ±5 % près) et calcule le coût exact à l'API, en tenant compte du cache de prompt et du tarif batch si vous l'activez.
Comment l'outil calcule
Le comptage des tokens
L'outil utilise une heuristique simple : un token vaut en moyenne 4 caractères en français, 4,5 en anglais, 3 en chinois. Pour un texte mixte, nous appliquons un facteur pondéré. Le résultat est à ±5 % du tokenizer officiel cl100k_base d'OpenAI. Pour une mesure exacte, utilisez la bibliothèque tiktoken en Python.
Les tarifs appliqués
- GPT-5 : 12 $ / 36 $ par million de tokens (entrée / sortie)
- GPT-5-mini : 1,80 $ / 5,40 $ par million
- GPT-5-nano : 0,12 $ / 0,36 $ par million
Pour les tokens d'entrée mis en cache, OpenAI applique une remise de 50 %. L'API batch applique une remise de 50 % supplémentaire sur l'ensemble du coût, en échange d'un délai de traitement de 24 heures maximum.
Conversion USD/EUR
Nous utilisons un taux fixe de référence (1 USD = 0,92 EUR) pour faciliter la lecture. Le coût réel sera facturé en dollars par OpenAI, avec conversion par votre banque ou votre carte selon son propre taux.
Quel modèle choisir ?
Voici quelques règles pratiques pour orienter votre choix :
- Classification simple, extraction structurée, traduction → GPT-5-nano suffit largement. Économie : 95 % par rapport à GPT-5 standard.
- Chatbot de support, génération de contenu marketing, résumé → GPT-5-mini est le meilleur compromis qualité/prix.
- Analyse documentaire complexe, raisonnement multi-étapes, codage → GPT-5 standard est justifié.
- Tâche unique critique → Lancez sur GPT-5-mini d'abord, comparez sur un échantillon, ne montez en gamme que si la qualité l'exige.
Pour aller plus loin
Pour aller plus loin, lisez nos analyses sur les capacités de GPT-5, sur le comparatif des modèles LLM et sur la construction d'agents IA. Le comparateur LLM aide aussi à choisir le bon modèle selon les usages.