L’essentiel de notre rétrospective IA générative 2025 📖
Ce qu’il faut retenir de la rétrospective sur l’IA générative de 2025.
👉 TL;DR : En 2025, l’intelligence artificielle a quitté le stade de la conversation pour entrer dans l’ère de l’IA industrielle : elle ne se contente plus de dire, elle fait. La priorité n’est plus la vitesse, mais la capacité de raisonnement (« Thinking mode ») pour éliminer les erreurs, comme le démontrent les modèles GPT-5.2 ou Gemini 3. Les LLMs sont devenus de véritables agents autonomes, multimodaux, capables de piloter des ordinateurs, de coder des architectures entières et de comprendre nativement le monde réel. Cette puissance cognitive transforme toutefois la Tech en industrie lourde, confrontée à des défis énergétiques et matériels colossaux.
L’année 2025 touche à sa fin et, avec elle, une certitude s’impose. Face à l’IA, nous ne sommes plus à l’ère de l’émerveillement, mais bien à celle de l’intelligence industrielle. Si 2023 était la découverte du dialogue avec la machine, et 2024 son intégration dans nos bureaux, 2025 restera comme l’année où l’IA a commencé à « faire » plutôt qu’à simplement « dire ». Elle ne se contente plus de rédiger, elle agit désormais comme un véritable collaborateur autonome, capable de manipuler nos outils et de prendre en compte les contraintes du monde réel.
Chez LabSense, nous avons suivi de près toute l’année cette mutation profonde. Et le moment est venu de vous partager nos observations. Retour sur ces avancées technologiques qui ont façonné l’année 2025 ! 👓
🗓️ Les temps forts de l’IA en 2025
Avant de commencer notre rétrospective IA générative 2025, découvrez ou redécouvrez dans le tableau ci-dessous les sorties de LLM qui ont ponctué cette année !
| Mois | Modèle | Organisation | Type | Description |
|---|---|---|---|---|
| Janvier | Qwen 2.5-Max | Alibaba | Texte | Nouveau LLM chinois surpassant GPT-4o, DeepSeek-V3 et Llama-3.1-405B sur la plupart des benchmarks |
| Janvier | DeepSeek-R1 | DeepSeek | Texte | Chatbot LLM open-source chinois, performances comparables à GPT-4 |
| Février | Grok 3 | xAI | Texte | LLM d’Elon Musk, 10× plus de calcul que Grok‑2, dépasse GPT‑4o sur tâches mathématiques |
| Février | NotebookLM | Texte/Audio/Video | Génère résumés et explications à partir de contenu utilisateur, format conversationnel (podcast) | |
| Mars | Qwen 2.5 (32B) | Alibaba | Texte+Images | Modèle multimodal combinant texte et images |
| Mars | Manus AI | Monica | Agentivité | Agent conçu pour exécuter des tâches complexes dans le monde réel avec un minimum de supervision humaine |
| Avril | Qwen 3 | Alibaba | Texte | Famille LLM dense et sparse jusqu’à 235B paramètres, licence ouverte, performant et léger |
| Mai | Claude Opus et Sonnet 4 | Anthropic | Texte | LLM pour codage complexe sur longs programmes, meilleure précision et raisonnement |
| Mai | Mistral Medium 3 | Mistral | Texte | Modèle intermédiaire performant, 8× moins coûteux que grands modèles |
| Août | GPT-5 | OpenAI | Texte multimodal | Successeur GPT-4, amélioration génération linguistique et compréhension multimodale |
| Août | DeepSeek V3.1 | DeepSeek | Texte | LLM avec deux modes (pensée/rapide), gains vitesse et raisonnement complexe |
| Septembre | Sora 2 | OpenAI | Vidéo+Audio | Génération vidéo avec dialogues et sons, meilleure fidélité physique, plateforme création contenu social |
| Septembre | Qwen 3-Max | Alibaba | Texte | Modèle phare textuel, surpasse de nombreux modèles concurrents non reasoning + version Omni pour le multimodal |
| Novembre | Claude Opus 4.5 | Anthropic | Texte | Mise à jour pour code et workflows agentiques, intégration GitHub Copilot |
| Novembre | Grok 4.1 | xAI | Texte | Améliore sensibilité émotionnelle, compréhension multimodale, minimise hallucinations + mode Fast |
| Décembre | GPT-5.2 | OpenAI | Texte | Amélioration GPT-5, meilleure gestion de longs contextes et outils |
| Décembre | GPT-Image 1.5 | OpenAI | Image | Génération d’images haute-fidélité, plus rapide, respect consignes |
| Décembre | Gemini 3 Pro | Texte multimodal | LLM avancé pour abonnés Google One, génération multimodale sophistiquée + mode Flash et Deep Think | |
| Décembre | Mistral Large 3 | Mistral | Texte+Image | Modèle MoE multimodal open-source, haute performance, licence Apache 2.0 |
🧠 En 2025, un modèle IA réfléchi vaut mieux qu’un modèle rapide
En 2025, la course à la taille des modèles a clairement laissé place à la course à l’intelligence de l’inférence. Le paradigme a changé. On ne demande plus à l’IA de répondre instantanément, mais de « réfléchir » avant de générer.
OpenAI et la maturité de GPT-5
La famille GPT-5 a introduit une innovation majeure : le mode « Thinking ». Plutôt que de générer du texte mot à mot, le modèle utilise un temps de réflexion pour vérifier ses faits et sa logique. Depuis, chaque LLM de premier plan s’est doté d’un mode de raisonnement. Les résultats sont sans appel : le modèle GPT-5.2 aurait atteint un score de 70,9 % au benchmark GDPval, qui mesure la création de valeur économique réelle dans 44 professions. À titre de comparaison, les modèles de 2024 stagnaient sous la barre des 40 %.
En savoir plus sur GPT-5 et GPT-5.2

GPT-5.2, la réponse d’OpenAI qui vole la vedette à Gemini
« Le paysage de l’intelligence artificielle a été secoué par un torrent d’annonces depuis le lancement de GPT-5. Malgré ses 800 millions d’utilisateurs hebdomadaires, OpenAI a vu cette année sa domination contestée… » >> Lire la suite

OpenAI sous tension ? Les leçons du raté de GPT-5 pour l’avenir de l’IA
« La sortie de GPT-5 a été l’un des événements les plus attendus de l’année dans le monde de l’intelligence artificielle. Les promesses d’OpenAI étaient audacieuses, laissant entrevoir un saut quantique vers une « superintelligence »… » >> Lire la suite
Gemini propose la pensée parallèle
Google a adopté une approche distincte avec Gemini, fondée sur le raisonnement parallèle et le contrôle explicite de l’effort cognitif. Gemini 2.5 Deep Think excelle en recherche scientifique et en codage complexe en générant plusieurs pistes de réflexion avant de choisir la meilleure, ce qui aurait réduit drastiquement les hallucinations. Gemini 3 pousse cette logique plus loin avec le paramètre thinkingLevel et un haut degré d’honnêteté, préférant admettre l’incertitude plutôt que produire des réponses erronées. Cette combinaison en ferait un outil de référence pour le raisonnement multimodal et la découverte scientifique.
La fiabilité comme forme d’intelligence avec Claude
De son côté, Anthropic a lancé Claude 4.5, un modèle qui mise tout sur l’intuition et la fiabilité. Claude 4.5 Sonnet s’est imposé comme le chouchou des professionnels pour sa capacité à maintenir une concentration extrême sur des sessions de travail dépassant les 30 minutes d’autonomie totale. Son score de 61,4 % sur OSWorld (utilisation autonome d’un ordinateur) prouve qu’il ne se contente pas de raisonner dans le vide. Il comprendrait l’environnement numérique et agirait avec une précision quasi humaine. Un paradoxe quand on parle de machines, vous en conviendrez peut-être.
👨💻 En 2025, on code avec l’IA !
Si 2024 était l’année des assistants de code, 2025 est celle des ingénieurs IA autonomes. Impossible de faire cette rétrospective IA générative 2025 sans les évoquer ! Deux modèles ont dominé ce marché ultra spécialisé. Ces nouveaux modèles ne se contentent plus d’assister le développeur : ils planifient, anticipent et exécutent des tâches complexes à l’échelle d’architectures logicielles entières.
Tout savoir sur l’IA pour coder

Comment coder avec l’IA ? Analyse et outils pour les développeurs
« On ne le répètera jamais assez : l’arrivée de l’IA générative a bouleversé de nombreux secteurs, et celui du développement logiciel ne fait pas exception. L’IA n’est plus un concept futuriste pour les développeurs… » >> Lire la suite
Claude 4.5 : de l’intuition à l’exécution parfaite
Claude 4.5 (Sonnet & Opus) est passé du statut de « roi des vibes » à celui de roi de l’exécution. Anthropic l’aurait optimisé pour la planification à long terme. Dans une session de codage, il ne se contente pas d’écrire des lignes ; il anticiperait les répercussions d’un changement sur l’ensemble de l’architecture.
Son intégration native au protocole MCP (Model Context Protocol) lui permet de naviguer dans vos fichiers et terminaux avec une aisance déconcertante. Ce serait aujourd’hui le modèle le plus performant pour le développement frontend et les interfaces utilisateurs « pixel-perfect ».
La machine à refactoriser GPT-5.1-Codex-Max
OpenAI a riposté avec une version survitaminée de son modèle de code. Le modèle Codex 5.1 aurait été conçu pour les sessions de refactorisation massive de bases de code héritées (legacy). Sa force résiderait dans sa mémoire de travail étendue et sa capacité à utiliser des outils système (shell, apply_patch) de manière native.
Sur le benchmark SWE-Bench Verified, il atteint un taux de résolution de 74 %, transformant les sessions de débogage de plusieurs heures en de simples vérifications de quelques minutes.
🎨 Multimodalité et créativité, les mots-clefs de l’IA générative en 2025
En 2025, l’IA ne se contente donc plus de décrire le monde : elle le voit, le manipule et le simule avec une fidélité physique. Les modèles NanoBanana de Google ont par exemple été les modèles d’image plus impressionnants de l’année. Avec un raisonnement de l’espace, ils ont démontré que la rapidité ou la beauté d’une image ne suffisaient plus. Mais le progrès va bien plus loin.
Lire aussi

NanoBanana ou GPT-1.5 Image : quel modèle IA d’image choisir ?
« Les systèmes doivent désormais être capables de produire des visuels exploitables, fiables et porteurs de sens. Il s’agit d’aller bien au-delà du simple « beau ». Créateurs de contenu, experts marketing ou ingénieurs doivent désormais choisir… » >> Lire la suite
La multimodalité native ou l’ère de la « fusion précoce »
L’un des sauts technologiques les plus critiques de cette rétrospective IA générative 2025 est l’abandon des modèles dits « cousus »1. Jusqu’ici, on greffait souvent un modèle de vision sur un modèle de langage (LLM). En 2025, des géants comme GPT-5 ou le très récent Mistral Large 3 ont imposé la « fusion précoce » (early fusion)2.
Contrairement aux anciennes architectures, ces modèles traitent le texte, l’image et l’audio au sein d’un seul et même flux de données (tokens). Résultat ? L’IA possède désormais de véritables « yeux ». Cette compréhension profonde lui permet d’appréhender :
- L’espace et les textures : elle ne « devine » plus la rugosité d’un tissu, elle la comprend physiquement.
- Les émotions vocales : l’audio n’est plus transcrit en texte pour être compris ; l’IA saisit l’ironie, la fatigue ou l’enthousiasme directement dans l’onde sonore, sans aucune perte d’information.
Avec « GPT App », l’IA devient votre système d’exploitation
Pour les créateurs et les entreprises, 2025 a aussi marqué la fin de la fenêtre de chat isolée. Avec l’écosystème Apps GPT, l’IA s’est transformée en un véritable système d’exploitation. L’interface d’OpenAI permet désormais d’ouvrir Adobe Photoshop, Canva ou Excel directement dans sa propre fenêtre.
Ce n’est plus un simple gadget : grâce aux capacités de computer use, l’IA utiliserait l’interface logicielle exactement comme vous le feriez. Elle détecte les calques de votre fichier Photoshop, ajuste les marges de votre mise en page Canva ou crée des tableaux croisés dynamiques dans Excel en temps réel. C’est donc le signe de la fin de l’apprentissage logiciel fastidieux. Ne passez plus des heures à chercher comment effectuer un détourage complexe. En revanche, indiquez simplement à l’IA : « Ouvre Photoshop et détoure ce produit pour ma bannière Canva« , et l’exécution se fait sous vos yeux.
Quel bilan pour la vidéo en 2025 ?
Dans le domaine de la vidéo, nous connaissons en effet tous l’impact de VEO 3.1 sur la production de contenus vidéo. Mais la véritable rupture est venue de Sora 2 (une plateforme sociale qui permet de produire par IA des contenus audio-visuels prêts à publier) et Genie 3. Nous ne parlons plus de simples clips vidéo, mais de « world models » (modèles de monde). Ces systèmes ont franchi le mur de la cohérence : ils respectent désormais les lois de la physique et de la gravité. Si un objet tombe dans une scène générée, il rebondit de manière réaliste selon sa matière.
Découvrez d’autres modèles IA de génération de vidéos

De Higgsfield à Runway : zoom sur les IA génératives qui mettent la vidéo à l’affiche
« L’univers de la création vidéo par intelligence artificielle connaît une véritable révolution. Longtemps cantonnées à des usages anecdotiques, les IA génératives de vidéo franchissent aujourd’hui un cap… » >> Lire la suite
D’après les utilisateurs réguliers d’IA, l’innovation la plus spectaculaire resterait l’interactivité de Google Genie 3. Pour la première fois, un simple prompt texte ou image peut entre autres générer un environnement 3D entièrement jouable. Vous pouvez vous y déplacer, transformant radicalement le métier de créateur.
- Démocratisation du jeu vidéo : la frontière entre le cinéma et l’expérience interactive devient quasi inexistante.
- Prototypage rapide : dans l’industrie cinématographique et publicitaire, on ne crée plus de simples storyboards, on « génère » des scènes interactives pour tester les angles de caméra.
🤖 Les agents IA, futurs collègues des travailleurs
C’est sans doute un des mots de l’année : l’agentivité. Nous sommes passés du chatbot (qui discute) à l’agent (qui exécute). Avec Claude 4.5 par exemple, Anthropic a perfectionné la capacité de l’IA à utiliser un ordinateur comme un humain (souris, clavier, navigation). C’est une révolution pour l’automatisation de contenu et les tâches administratives complexes. Mais 2 autres acteurs se également sont démarqués dans cette catégorie de notre rétrospective IA générative 2025.
« L’obstacle n’est plus la technologie, mais notre capacité managériale à intégrer ces nouveaux travailleurs numériques dans nos flux de travail. » — Rapport McKinsey 2025.
Manus, le pilier de l’autonomie
En mars 2025, la sortie de Manus a marqué un tournant définitif. Contrairement aux versions précédentes, Manus 1.6 possède une capacité de planification « long-horizon » qui lui permet de gérer des projets s’étalant sur plusieurs heures sans supervision humaine.

Manus AI : L’agent intelligent autonome chinois ébahit et interroge
« Après l’impact de DeepSeek, un modèle IA plus économique et ouvert que ses homologues occidentaux, un nouvel agent autonome vient secouer l’industrie : Manus AI. Développé par la startup chinoise Monica… » >> Lire la suite
Il aurait pulvérisé certains records, avec un score de 86,5 % sur le benchmark GAIA, surpassant entre autres les outils de recherche d’OpenAI. Un utilisateur peut désormais lui confier une mission de haut niveau, telle que : « Recherche toutes les opportunités immobilières logistiques en Île-de-France, synthétise-les dans un tableau Excel et rédige un projet de mail personnalisé pour chaque agence ». Manus 1.6 navigue aussi sur le web, télécharge les documents, traite les erreurs de manière autonome et livre le résultat final prêt à l’emploi. Cette intelligence capable de « boucler la boucle » entre l’intention et l’action transforme radicalement la productivité en entreprise.
Avec Microsoft Copilot, l’IA devient un coéquipier
Microsoft a également transformé l’essai avec Copilot Studio et les Copilot Agents. L’IA n’est plus un assistant dans une barre latérale, mais un membre de l’équipe. Dans Word, Excel ou Teams, les agents peuvent désormais prendre des décisions, gérer des calendriers ou orchestrer des workflows complexes via la Power Platform. Microsoft aurait ainsi industrialisé l’agentivité, permettant aux entreprises d’atteindre des gains de productivité de 300 à 400 % sur certaines tâches administratives.
⚡ L’obstacle toujours plus grand de l’infrastructure
Pour finir cette rétrospective IA générative 2025, parlons infrastructure. L’ascension fulgurante de l’IA s’est heurtée cette année aux limites de la réalité, transformant de fait la Silicon Valley en un secteur d’industrie lourde. Les besoins en eau et en énergie sont aussi exponentiels. En outre, le besoin colossal en puissance de calcul a propulsé des projets d’infrastructure hors normes comme Stargate3, une initiative à 500 milliards de dollars qui nécessite une coordination mondiale entre OpenAI, Microsoft et des fonds souverains.
La ruée énergétique des géants technologiques
Tout d’abord, cette soif de gigawatts a forcé les géants de la technologie à devenir des acteurs énergétiques de premier plan, signant des accords historiques pour relancer des centrales nucléaires, à l’image du projet de Three Mile Island4 avec Microsoft. L’IA n’est plus seulement une affaire de code, c’est un défi de génie civil et de production d’énergie décarbonée.
Le silicium, un argument géopolitique
Cette contrainte matérielle s’est ensuite doublée d’une concurrence sans précédent. Sur le front du silicium, Nvidia maintient son hégémonie avec ses puces Blackwell, mais doit faire face à une Chine qui accélère son indépendance technologique via des champions comme Huawei, parvenant à contourner les restrictions pour produire des puces d’inférence compétitives.
La guerre des talents
En parallèle, une véritable « Guerre des Talents » a fait rage tout au long de l’année. En effet, Meta, sous l’impulsion d’un Mark Zuckerberg très agressif, a massivement recruté les meilleurs chercheurs d’OpenAI et de Google DeepMind en proposant des rémunérations records dépassant les dizaines de millions de dollars. Cette concentration de cerveaux, de puces et d’énergie dessine alors un paysage où seuls quelques acteurs mondiaux pourront maintenir la cadence de la prochaine loi d’échelle.
Rétrospective IA générative 2025 : un saut vers l’IA utile
En résumé, 2025 a transformé l’intelligence artificielle générative en une utilité publique, presque invisible tant elle s’intègre partout. Nous sommes donc passés d’un outil de rédaction à une véritable usine cognitive. La guerre de l’efficacité est ainsi lancée, les agents autonomes prennent leur poste et l’infrastructure mondiale se réorganise autour de cette nouvelle puissance. Pour les entreprises, le défi n’est plus de tester l’IA, mais de l’industrialiser pour ne pas rester sur le quai de cette accélération historique.
💡 Prêt à transformer votre stratégie de contenu en 2026 ?
Chez LabSense, nous transformons ces avancées technologiques en résultats concrets pour votre entreprise. Forts de 10 ans d’expertise en R&D et de plus de 400 millions de textes produits, nous vous aidons à passer à l’échelle. Contactez-nous !
- Un modèle « cousu » désigne une architecture d’intelligence artificielle composée de plusieurs modèles spécialisés distincts que l’on a assemblés (ou « greffés ») ensemble a posteriori pour traiter différents types de données. Concrètement, cela signifie qu’au lieu d’avoir un seul cerveau capable de tout comprendre, on connecte un module de vision (pour voir) à un modèle de langage (pour parler). Dans cette configuration, l’information subit souvent une conversion intermédiaire (par exemple, l’image est traduite en description textuelle avant d’être analysée), ce qui entraîne une perte de nuance. ↩︎
- Un seul modèle traite simultanément le texte, l’image et le son dans un même flux, lui permettant de véritablement « comprendre » la matière ou l’émotion sans étape de traduction. ↩︎
- Le projet Stargate est une coentreprise créée fin 2024, puis désignée par le Président Donald Trump en 2025 pour investir jusqu’à 500 milliards de dollars au cours des quatre prochaines années dans la construction d’une nouvelle infrastructure d’IA aux États-Unis. || Source ↩︎
- Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie redémarre au service de Microsoft afin d’exploiter l’énergie produite par l’un des réacteurs et alimenter ses centres de données aux Etats-Unis. ↩︎


