LLM Token Counter
Outil web/CLI gratuit pour compter tokens exactement.
Pourquoi c'est important
- Facturation API : tokens = coût direct
- Limites context : GPT-4 = 128K tokens max
- Optimisation : réduire tokens = économies réelles
Compteurs en ligne
- OpenAI Token Estimator
- platform.openai.com/tokenizer
-
Supporte : GPT-4, GPT-3.5, Davinci
-
Anthropic Token Counter
- Claude models
-
Fetch automatique depuis API
-
LLaMA Token Counter
- Open-source models
- Tokenizer téléchargeable
CLI Tools
# Python
pip install tiktoken
python -c "import tiktoken; enc = tiktoken.encoding_for_model('gpt-4'); print(len(enc.encode('votre texte')))"
# Node.js
npm install js-tiktoken
node -e "const {encoding_for_model} = require('js-tiktoken'); const enc = encoding_for_model('gpt-4'); console.log(enc.encode('texte').length)"
Tarification (2025)
| Modèle | Coût / 1M tokens |
|---|---|
| GPT-4o | $5 input / $15 output |
| Claude 3.5 | $3 input / $15 output |
| Gemini 2.0 | $0.075 input |
| DeepSeek | $0.14 input |
Compter tokens = maîtriser budget API.