GPT-6 : à quoi devrait ressembler le prochain saut d'OpenAI
OpenAI n'a pas encore officiellement annoncé GPT-6, mais les indices techniques, les déclarations publiques de Sam Altman et les briefings analystes pointent tous vers une sortie courant 2027. Dans ce dossier, nous croisons les signaux pour anticiper ses capacités, ses limites et son impact sur l'écosystème.
Une page de prospective, pas de divination
Avertissement liminaire : ce que vous allez lire est une analyse prospective, pas une fuite. Nous croisons trois sources pour dégager les tendances probables : (1) les déclarations publiques d'OpenAI et les indices laissés par Sam Altman, (2) les papiers de recherche récents qui annoncent les avancées du domaine, (3) les feuilles de route concurrentes (Anthropic, Google DeepMind, Mistral) qui dessinent la course technique. Aucune prédiction n'est garantie ; la profession reste celle d'observateur, pas de prophète.
Quand GPT-6 sortira-t-il ?
L'écart moyen entre les générations majeures d'OpenAI s'est stabilisé autour de 18 à 24 mois : GPT-3 (juin 2020), GPT-4 (mars 2023), GPT-5 (août 2025). En appliquant cette périodicité, GPT-6 pourrait être annoncé entre le printemps 2027 et début 2028. Sam Altman a évoqué publiquement à plusieurs reprises un saut générationnel "courant 2027" sans confirmer la nomenclature. Une accélération est possible si la concurrence (notamment Anthropic et Google) pousse OpenAI à raccourcir les cycles.
Capacités attendues : nos huit prédictions
1. Une agentivité de plusieurs jours, sans supervision continue
Le grand saut attendu de GPT-6 est sur les agents IA longue durée. Là où GPT-5 commence à dériver après 15-20 actions, GPT-6 devrait pouvoir tenir des objectifs sur plusieurs jours, gérer la mémoire à long terme, replanifier en cas d'imprévu et demander de l'aide quand il bloque. Cela ouvre la voie à de véritables collaborateurs numériques persistants — assistant de projet, chercheur autonome, gestionnaire de production technique.
2. Une mémoire persistante structurée
GPT-5 a introduit une mémoire conversationnelle limitée (notes que l'utilisateur peut activer). GPT-6 devrait franchir un cap : une mémoire de travail riche, organisée en concepts liés, mise à jour par l'agent lui-même, et persistante sur des semaines voire des mois. L'utilisateur retrouverait un assistant qui se souvient vraiment de ses préférences, de ses projets, de l'historique de ses problèmes.
3. Une fenêtre de contexte de 10 millions de tokens
La progression sur la fenêtre de contexte a été spectaculaire : 4k tokens (GPT-3), 128k (GPT-4 Turbo), 1M (GPT-5 long context). GPT-6 devrait atteindre 10 millions de tokens, soit l'équivalent d'une bibliothèque entière. Cette capacité permettrait de raisonner sur des corpus entiers — toute la jurisprudence d'un domaine, un dépôt monorepo complet, des décennies de littérature scientifique — sans recours au RAG.
4. Un raisonnement délibératif quasi-mathématique
GPT-5 a montré des capacités de raisonnement étonnantes avec son mode Reasoning. GPT-6 devrait franchir un palier comparable à ce que les médailles d'or aux olympiades de mathématiques représentent : preuves formelles longues, démonstrations originales, vérification automatique de théorèmes. Quelques équipes internes d'OpenAI travaillent déjà sur l'intégration native d'assistants de preuve (Lean 4, Coq).
5. Une multimodalité immersive
Au-delà du texte, image, audio, vidéo, GPT-6 devrait gérer nativement :
- La 3D et les modèles spatiaux (scans, plans, jumeaux numériques).
- La vidéo en streaming avec compréhension en temps réel.
- La voix expressive au niveau d'un narrateur humain, multilingue avec accent natif.
- L'incarnation robotique via partenariats avec Figure, 1X, Apptronik.
6. Un coût d'inférence drastiquement réduit
Paradoxalement, GPT-6 pourrait coûter moins cher à l'usage que GPT-5 grâce aux progrès en distillation, quantification et hardware spécialisé (Trainium 3, TPU v6, infrastructure Stargate). Les estimations conservatrices tablent sur une division par 3 à 5 du prix par token équivalent. Notre estimateur de coûts sera mis à jour le jour J.
7. Une fiabilité factuelle proche du zéro hallucination
Sur les sujets pour lesquels une vérité de référence existe (jurisprudence, fait historique daté, donnée publiée), GPT-6 devrait s'approcher du zéro hallucination grâce à trois mécanismes combinés : une intégration native du RAG, un module d'auto-vérification interne, et un score de confiance attaché à chaque affirmation. Cela ne résoudra pas les biais sur les sujets contestés ni l'imprévisibilité sur les questions ouvertes.
8. Une orchestration multi-agents intégrée
GPT-6 devrait permettre nativement de déclarer un essaim d'agents spécialisés et de les faire collaborer sans framework externe lourd. L'utilisateur décrirait l'objectif ; le modèle se chargerait de la délégation, de la coordination, de l'agrégation des résultats. Cela rapprocherait l'expérience utilisateur du "je délègue un projet entier" plutôt que "je pose une question à un assistant".
Ce que GPT-6 ne sera (probablement) pas
Quelques contre-pronostics, parce que la prudence vaut autant que l'enthousiasme :
- Ce ne sera pas une AGI. Le terme reste flou, le modèle restera un système probabiliste avec ses biais et ses angles morts. Le saut technique sera réel mais l'expérience utilisateur restera celle d'un outil, pas d'une conscience.
- Ce ne sera pas un modèle local accessible à tous. GPT-6 sera probablement encore plus gourmand en compute, donc plus dépendant du cloud OpenAI.
- Ce ne sera pas open-source. Le pli pris par OpenAI depuis 2019 ne s'inversera pas.
- Ce ne sera pas exempt de biais. Les biais culturels et linguistiques se déplaceront mais ne disparaîtront pas.
Impact attendu sur l'écosystème
Quelques bouleversements probables à anticiper :
- Concentration accrue — l'écart entre OpenAI et les autres acteurs pourrait se creuser à nouveau, comme entre GPT-3 et la concurrence en 2020-2021.
- Réinvention du logiciel professionnel — les outils SaaS classiques (CRM, ERP, gestion de projet) seront repensés autour de l'agentivité longue durée.
- Marché du travail — les fonctions de pure exécution (saisie, suivi, reporting) seront davantage automatisées ; les fonctions de jugement et de coordination resteront humaines.
- Régulation — l'AI Act européen devra être révisé pour couvrir les agents persistants. Une phase 4 est probable en 2027-2028.
- Sécurité — le débat sur l'alignement et l'auditabilité reprendra force, notamment pour les agents qui prennent des décisions sur plusieurs jours sans supervision.
Comment se préparer dès aujourd'hui ?
Trois recommandations pour les équipes qui anticipent l'arrivée de GPT-6 :
- Investissez dans la qualité de vos prompts et de vos évaluations. Un bon framework de tests de prompts (Promptfoo, Braintrust) restera utile, et migrer vers un nouveau modèle sera beaucoup plus rapide. Approfondissez avec notre dossier prompt engineering.
- Structurez vos pipelines pour le routing. Tous vos appels API ne devront pas aller sur GPT-6 dès J+1 — les tâches simples resteront plus rentables sur des modèles plus petits. Le routing dynamique sera la nouvelle frontière du coût.
- Anticipez les questions de gouvernance. Qui décide ce que l'agent peut faire seul ? Comment audite-t-on ses actions ? Quels sont les garde-fous ? Ces questions deviendront pressantes dès la sortie de GPT-6.
Et après GPT-6 ?
Les signaux de très long terme pointent vers une convergence entre LLM, robotique et IA scientifique. GPT-7, GPT-8 ne s'appelleront peut-être plus "GPT" — le paradigme actuel a ses limites architecturales, et la prochaine rupture viendra probablement d'un mélange de modèles à attention, de modèles de monde et de raisonnement symbolique. Mais c'est une autre histoire, pour une autre page.
Pour continuer
Pour le présent plutôt que le futur, consultez notre guide ChatGPT et le dossier détaillé sur GPT-5. Le comparateur LLM permet d'évaluer les modèles actuels avant de penser à ceux de demain. L'index des dépêches regroupe nos analyses récentes sur les annonces et fuites concernant la prochaine génération.