Et si le mois de février 2026 venait de marquer un tournant déterminant dans l’histoire de l’IA ?
- Frédéric MOUFFLE

- il y a 2 jours
- 6 min de lecture
En présentant le 5 février dernier son GPT-5.3-Codex, OpenAI annonce avoir construit le premier modèle d’IA “à s’être auto-construit”.

Le 5 février dernier, Open AI dévoilait la nouvelle version de ChatGPT, intitulée GPT-5.3-Codex. La documentation technique révèle d'ailleurs que GPT-5.3-Codex est le premier modèle ayant pris joué un rôle important dans sa propre création. Que faut -il comprendre de cette affirmation et de ce que cela implique pour le saut en qualité de l'IA à proprement parler ? Quels impacts peut-on espérer en matière économique, par exemple ?
GPT-5.3-Codex est une version pensée comme un collègue développeur, capable d’écrire du code, de mener une tâche complète sur ordinateur en enchaînant recherche, usage d’outils et exécution, tout en restant pilotable en cours de route. OpenAI le présente comme un modèle de codage agentique (le plus capable à ce jour), obtenu en combinant la performance de programmation de GPT-5.2-Codex avec les capacités de raisonnement et de connaissances professionnelles de GPT-5.2, avec un gain annoncé de 25 % en termes de vitesse.
Quand la documentation dit que GPT-5.3-Codex a joué un rôle important dans sa propre création, il faut comprendre une boucle d’ingénierie interne, pas une auto conception autonome. OpenAI explique que des versions précoces de GPT-5.3-Codex ont été utilisées pour surveiller et déboguer l’entraînement, analyser finement la qualité des interactions, repérer des motifs pendant le training, proposer des correctifs, construire des applications d’analyse pour les chercheurs, puis aider côté ingénierie à identifier des bugs de rendu de contexte, diagnostiquer des problèmes de cache, et même contribuer à stabiliser le service pendant le lancement en ajustant des ressources de calcul face aux pics de trafic. Le Blog du Modérateur résume la même idée en indiquant que des versions
préliminaires ont servi à déboguer l’entraînement, gérer le déploiement et diagnostiquer les résultats de tests.
Concernant le saut en qualité, cela implique que c’est surtout un effet de compounding (boule de neige), parce que l’IA devient un accélérateur de R&D sur l’IA elle-même, en réduisant le temps entre un problème détecté et un correctif validé, et en augmentant le volume d’outillage, de tests et d’analyses que les équipes peuvent produire. Mais il faut éviter la lecture science-fiction. La carte système précise que le modèle ne franchit pas le seuil dit de high capability sur l’auto amélioration de l’IA.
On ne parle pas d’un système qui s’améliore seul hors contrôle mais plutôt d’un outil très performant intégré dans une chaîne de travail humaine. OpenAI précise aussi que, pour la première fois, ils classent ce lancement comme un modèle très puissant sur les sujets de cybersécurité. Autrement dit, plus l’IA devient capable, plus il faut renforcer les protections, les contrôles et les règles d’utilisation autour d’elle.
Cette sortie s’inscrit dans une compétition frontale entre modèles frontières. Le 6 février 2026, Anthropic a lancé Claude Opus 4.6 presque en même temps qu’OpenAI dévoilait GPT-5.3-Codex, signe d’une course aux agents capables de travailler longtemps et d’agir dans de gros projets de code. On peut parler d’un duel Codex contre Claude Code, Anthropic mettant en avant une fenêtre de contexte jusqu’à un million de tokens en bêta. L’enjeu n’est plus seulement de bien répondre, mais de réaliser un travail complet, avec à la clé des gains économiques. Un agent plus fiable peut accélérer développement, prototypage, tests et maintenance. Des études observent déjà des hausses de productivité, notamment en support client selon le NBER, surtout pour les moins expérimentés. McKinsey projette aussi un impact possible sur la productivité d’ici 2040 selon l’adoption, tandis que l’IMF souligne que beaucoup d’emplois sont exposés, avec des besoins de formation et des risques d’inégalités si les gains sont mal répartis.
Amazon illustre bien l’effet économique attendu de l’IA, fin janvier 2026, le groupe a confirmé 16 000 suppressions de postes corporate, en expliquant vouloir réduire la bureaucratie et gagner en efficacité, avec l’IA comme levier. Andy Jassy indique aussi que l’IA générative devrait, à terme, diminuer certains effectifs corporate, même si de nouveaux rôles apparaîtront ailleurs. D’autres entreprises avancent des effets similaires : Klarna affirme que l’IA a contribué à réduire ses effectifs d’environ 40% (avec gel des embauches et attrition). Enfin, plusieurs restructurations récentes mentionnent l’IA et l’automatisation parmi les facteurs d’adaptation, montrant que des coupes sont parfois décidées “par anticipation” des gains promis.
Depuis son introduction, l'IA a souvent été décrite comme un outil presque "bureautique". Diriez-vous que cette nouvelle évolution fait sortir l'IA de la case "bureautique", qu'elle dépasse ce seul stade ? Quelles évolutions faut-il attendre, dans ce cas, pour les métiers que cette nouvelle forme d'IA serait en mesure de transformer ?
On sort largement de la bureautique dès qu’on parle d’IA qui agit sur des systèmes réels plutôt que de produire seulement des textes ou des slides. Dans le codage web, GPT-5.3-Codex est présenté comme un agent capable de construire et faire évoluer des apps et des sites sur la durée, avec usage d’outils et itérations longues, pas juste du code au kilomètre. Dans la même veine, des agents comme Devin sont montrés en train de prendre un ticket, modifier un dépôt, corriger et livrer une solution de bout en bout. En médecine et biologie, AlphaFold 3 vise à prédire la structure et les interactions entre protéines, ADN ou ARN et petites molécules, ce qui sert directement à comprendre des mécanismes et accélérer la recherche de médicaments. Et il y a déjà des cas concrets de drug discovery. Une molécule découverte via IA générative rentosertib a fait l’objet d’un essai clinique de phase 2a dans la fibrose pulmonaire idiopathique, publié dans Nature
Medicine. À l’hôpital, l’IA n’est pas un traitement de texte, des logiciels comme Viz.ai détectent des suspicions d’AVC sur imagerie et déclenchent plus vite la coordination des spécialistes. En science des matériaux, DeepMind a présenté GNoME, qui a proposé des centaines de milliers de nouveaux cristaux stables potentiels, pour accélérer la découverte de matériaux utiles (batteries, électronique, etc.). Enfin, hors bureau, on voit
aussi des IA en météo comme GraphCast qui propose des prévisions globales rapides ou en robotique, RT-2, qui relie langage et vision à des actions physiques).
De quels critères objectifs dispose-t-on pour mesurer la réalité du saut qualitatif ici évoqué ? Peut-on en chiffrer avec précision l’impact économique ?
Pour vérifier qu’il y a vraiment un saut qualitatif, on regarde d’abord des tests comparables d’une version à l’autre, comme une sorte de contrôle technique. OpenAI cite par exemple SWE Bench Pro, qui mesure la capacité à résoudre de vrais problèmes de génie logiciel sur plusieurs langages et avec une meilleure résistance au par cœur, Terminal Bench 2.0 qui teste le fait de savoir utiliser un terminal comme un vrai agent, OSWorld Verified qui mesure la capacité à accomplir des tâches sur un ordinateur, et GD
Pval qui couvre des tâches de travail qualifié dans de nombreux métiers. Ensuite, on regarde des critères très concrets en conditions proches du réel, parce qu’un bon score ne suffit pas. Sur 100 tâches complètes, combien l’IA termine vraiment sans se perdre, combien de fois elle réussit de manière répétable, en combien de temps, et avec quelle consommation de jetons donc quel coût. OpenAI met justement en avant des gains de vitesse et d’efficacité en jetons, ce qui compte directement pour l’usage en entreprise. Enfin, on mesure aussi la sûreté, car un modèle plus puissant peut aussi être plus détournable. La System Card et le Preparedness Framework décrivent des évaluations et des garde fous, et OpenAI indique traiter ce lancement comme “High capability” en cybersécurité, ce qui déclenche des protections renforcées.
La révolution que connaît aujourd'hui l'IA aura-t-elle un impact comparable à d'autres bouleversements majeurs dans notre façon d'aborder le travail (type Covid, ou révolution industrielle, internet, etc) ?
La dynamique ressemble beaucoup à ce qu’on a déjà vu avec des innovations qui semblent supprimer un métier, mais qui, en pratique, déplacent surtout les tâches. Les distributeurs automatiques ont automatisé une partie du travail des guichetiers, pourtant l’emploi n’a pas été détruit mécaniquement, parce que les banques ont ouvert plus d’agences et les guichetiers ont basculé vers des tâches de relation et de vente de services. Même logique avec les caisses automatiques, souvent présentées comme la fin des caissiers, une étude montre que l’emploi en supermarché n’a pas suivi une chute durable attribuable aux self checkouts, notamment parce que ces caisses demandent supervision, gestion d’incidents, maintenance, et parce qu’une partie du travail se déplace vers l’aide en magasin plutôt que de disparaître à 100%.
Mais l’histoire montre aussi l’autre scénario : certaines technologies ont des effets négatifs nets localement, au moins pendant une phase. Sur les robots industriels, une étude très citée estime qu’une hausse de robots est associée à une baisse de l’emploi et des salaires dans les zones les plus exposées. L’IA peut donc produire, selon les secteurs, soit un déplacement de tâches comme pour les caisses et les DAB, soit un choc plus dur comme certaines vagues d’automatisation industrielle.
Au global, l’IA générative est souvent analysée comme une technologie dite à usage général, comme l’électricité ou internet, parce qu’elle se diffuse partout, s’améliore en continu et déclenche des innovations dans beaucoup de métiers. La différence, c’est que son déploiement peut aller plus vite car c’est du logiciel, donc l’impact sur l’organisation du travail pourrait être très large, mais étalé dans le temps, avec une phase d’adaptation où les métiers se recomposent plutôt qu’ils ne disparaissent d’un bloc.



Commentaires