Image générée par NanoBanana Pro. Illustration flat design d'un robot qui regarde le paysage 2025 avec des jumelles. Rétrospective IA générative 2025.

Rétrospective IA générative 2025 : LabSense fait le point !

Image de Alice Petitcolin
Alice Petitcolin

Sommaire

L’essentiel de notre rétrospective IA générative 2025 📖

L’année 2025 touche à sa fin et, avec elle, une certitude s’impose. Face à l’IA, nous ne sommes plus à l’ère de l’émerveillement, mais bien à celle de l’intelligence industrielle. Si 2023 était la découverte du dialogue avec la machine, et 2024 son intégration dans nos bureaux, 2025 restera comme l’année où l’IA a commencé à « faire » plutôt qu’à simplement « dire ». Elle ne se contente plus de rédiger, elle agit désormais comme un véritable collaborateur autonome, capable de manipuler nos outils et de prendre en compte les contraintes du monde réel.

Chez LabSense, nous avons suivi de près toute l’année cette mutation profonde. Et le moment est venu de vous partager nos observations. Retour sur ces avancées technologiques qui ont façonné l’année 2025 ! 👓


🗓️ Les temps forts de l’IA en 2025

Avant de commencer notre rétrospective IA générative 2025, découvrez ou redécouvrez dans le tableau ci-dessous les sorties de LLM qui ont ponctué cette année !

MoisModèleOrganisationTypeDescription
JanvierQwen 2.5-MaxAlibabaTexteNouveau LLM chinois surpassant GPT-4o, DeepSeek-V3 et Llama-3.1-405B sur la plupart des benchmarks
JanvierDeepSeek-R1DeepSeekTexteChatbot LLM open-source chinois, performances comparables à GPT-4
FévrierGrok 3xAITexteLLM d’Elon Musk, 10× plus de calcul que Grok‑2, dépasse GPT‑4o sur tâches mathématiques
FévrierNotebookLMGoogleTexte/Audio/VideoGénère résumés et explications à partir de contenu utilisateur, format conversationnel (podcast)
MarsQwen 2.5 (32B)AlibabaTexte+ImagesModèle multimodal combinant texte et images
MarsManus AIMonicaAgentivitéAgent conçu pour exécuter des tâches complexes dans le monde réel avec un minimum de supervision humaine
AvrilQwen 3AlibabaTexteFamille LLM dense et sparse jusqu’à 235B paramètres, licence ouverte, performant et léger
MaiClaude Opus et Sonnet 4AnthropicTexteLLM pour codage complexe sur longs programmes, meilleure précision et raisonnement
MaiMistral Medium 3MistralTexteModèle intermédiaire performant, 8× moins coûteux que grands modèles
AoûtGPT-5OpenAITexte multimodalSuccesseur GPT-4, amélioration génération linguistique et compréhension multimodale
AoûtDeepSeek V3.1DeepSeekTexteLLM avec deux modes (pensée/rapide), gains vitesse et raisonnement complexe
SeptembreSora 2OpenAIVidéo+AudioGénération vidéo avec dialogues et sons, meilleure fidélité physique, plateforme création contenu social
SeptembreQwen 3-MaxAlibabaTexteModèle phare textuel, surpasse de nombreux modèles concurrents non reasoning + version Omni pour le multimodal
NovembreClaude Opus 4.5AnthropicTexteMise à jour pour code et workflows agentiques, intégration GitHub Copilot
NovembreGrok 4.1xAITexteAméliore sensibilité émotionnelle, compréhension multimodale, minimise hallucinations + mode Fast
DécembreGPT-5.2OpenAITexteAmélioration GPT-5, meilleure gestion de longs contextes et outils
DécembreGPT-Image 1.5OpenAIImageGénération d’images haute-fidélité, plus rapide, respect consignes
DécembreGemini 3 ProGoogleTexte multimodalLLM avancé pour abonnés Google One, génération multimodale sophistiquée + mode Flash et Deep Think
DécembreMistral Large 3MistralTexte+ImageModèle MoE multimodal open-source, haute performance, licence Apache 2.0

🧠 En 2025, un modèle IA réfléchi vaut mieux qu’un modèle rapide

En 2025, la course à la taille des modèles a clairement laissé place à la course à l’intelligence de l’inférence. Le paradigme a changé. On ne demande plus à l’IA de répondre instantanément, mais de « réfléchir » avant de générer.

OpenAI et la maturité de GPT-5

La famille GPT-5 a introduit une innovation majeure : le mode « Thinking ». Plutôt que de générer du texte mot à mot, le modèle utilise un temps de réflexion pour vérifier ses faits et sa logique. Depuis, chaque LLM de premier plan s’est doté d’un mode de raisonnement. Les résultats sont sans appel : le modèle GPT-5.2 aurait atteint un score de 70,9 % au benchmark GDPval, qui mesure la création de valeur économique réelle dans 44 professions. À titre de comparaison, les modèles de 2024 stagnaient sous la barre des 40 %.

En savoir plus sur GPT-5 et GPT-5.2

Image de présentation pour l'article sur GPT-5.2, nouveau modèle d'OpenAI analysé par LabSense,et retrospective IA générative 2025. Concurrence avec Gemini 3 et Anthropic.
GPT-5.2, la réponse d’OpenAI qui vole la vedette à Gemini

« Le paysage de l’intelligence artificielle a été secoué par un torrent d’annonces depuis le lancement de GPT-5. Malgré ses 800 millions d’utilisateurs hebdomadaires, OpenAI a vu cette année sa domination contestée… » >> Lire la suite

Image d'illustration de l'article LabSense sur Chat GPT-5 d'OpenAI
OpenAI sous tension ? Les leçons du raté de GPT-5 pour l’avenir de l’IA

« La sortie de GPT-5 a été l’un des événements les plus attendus de l’année dans le monde de l’intelligence artificielle. Les promesses d’OpenAI étaient audacieuses, laissant entrevoir un saut quantique vers une « superintelligence »… » >> Lire la suite

Gemini propose la pensée parallèle

Google a adopté une approche distincte avec Gemini, fondée sur le raisonnement parallèle et le contrôle explicite de l’effort cognitif. Gemini 2.5 Deep Think excelle en recherche scientifique et en codage complexe en générant plusieurs pistes de réflexion avant de choisir la meilleure, ce qui aurait réduit drastiquement les hallucinations. Gemini 3 pousse cette logique plus loin avec le paramètre thinkingLevel et un haut degré d’honnêteté, préférant admettre l’incertitude plutôt que produire des réponses erronées. Cette combinaison en ferait un outil de référence pour le raisonnement multimodal et la découverte scientifique.

La fiabilité comme forme d’intelligence avec Claude

De son côté, Anthropic a lancé Claude 4.5, un modèle qui mise tout sur l’intuition et la fiabilité. Claude 4.5 Sonnet s’est imposé comme le chouchou des professionnels pour sa capacité à maintenir une concentration extrême sur des sessions de travail dépassant les 30 minutes d’autonomie totale. Son score de 61,4 % sur OSWorld (utilisation autonome d’un ordinateur) prouve qu’il ne se contente pas de raisonner dans le vide. Il comprendrait l’environnement numérique et agirait avec une précision quasi humaine. Un paradoxe quand on parle de machines, vous en conviendrez peut-être.

👨‍💻 En 2025, on code avec l’IA !

Si 2024 était l’année des assistants de code, 2025 est celle des ingénieurs IA autonomes. Impossible de faire cette rétrospective IA générative 2025 sans les évoquer ! Deux modèles ont dominé ce marché ultra spécialisé. Ces nouveaux modèles ne se contentent plus d’assister le développeur : ils planifient, anticipent et exécutent des tâches complexes à l’échelle d’architectures logicielles entières.

Tout savoir sur l’IA pour coder

Image d'illustration de l'article de LabSense sur l'IA dans le codage pour les développeurs, et retrospective IA générative 2025. Programmeur masculin au casque utilisant l’ordinateur travaillant sur le code à son poste.

Comment coder avec l’IA ? Analyse et outils pour les développeurs

« On ne le répètera jamais assez : l’arrivée de l’IA générative a bouleversé de nombreux secteurs, et celui du développement logiciel ne fait pas exception. L’IA n’est plus un concept futuriste pour les développeurs… » >> Lire la suite

Claude 4.5 : de l’intuition à l’exécution parfaite

Claude 4.5 (Sonnet & Opus) est passé du statut de « roi des vibes » à celui de roi de l’exécution. Anthropic l’aurait optimisé pour la planification à long terme. Dans une session de codage, il ne se contente pas d’écrire des lignes ; il anticiperait les répercussions d’un changement sur l’ensemble de l’architecture.

Son intégration native au protocole MCP (Model Context Protocol) lui permet de naviguer dans vos fichiers et terminaux avec une aisance déconcertante. Ce serait aujourd’hui le modèle le plus performant pour le développement frontend et les interfaces utilisateurs « pixel-perfect ».

La machine à refactoriser GPT-5.1-Codex-Max

OpenAI a riposté avec une version survitaminée de son modèle de code. Le modèle Codex 5.1 aurait été conçu pour les sessions de refactorisation massive de bases de code héritées (legacy). Sa force résiderait dans sa mémoire de travail étendue et sa capacité à utiliser des outils système (shell, apply_patch) de manière native.

Sur le benchmark SWE-Bench Verified, il atteint un taux de résolution de 74 %, transformant les sessions de débogage de plusieurs heures en de simples vérifications de quelques minutes.

🎨 Multimodalité et créativité, les mots-clefs de l’IA générative en 2025

En 2025, l’IA ne se contente donc plus de décrire le monde : elle le voit, le manipule et le simule avec une fidélité physique. Les modèles NanoBanana de Google ont par exemple été les modèles d’image plus impressionnants de l’année. Avec un raisonnement de l’espace, ils ont démontré que la rapidité ou la beauté d’une image ne suffisaient plus. Mais le progrès va bien plus loin.

Lire aussi

Image d'illustration de l'article de LabSense sur la manière de choisir son modèle IA d'image en fonction de ses besoins (NanoBanana, GPT-1.5 Image)
NanoBanana ou GPT-1.5 Image : quel modèle IA d’image choisir ?

« Les systèmes doivent désormais être capables de produire des visuels exploitables, fiables et porteurs de sens. Il s’agit d’aller bien au-delà du simple « beau ». Créateurs de contenu, experts marketing ou ingénieurs doivent désormais choisir… » >> Lire la suite

La multimodalité native ou l’ère de la « fusion précoce »

L’un des sauts technologiques les plus critiques de cette rétrospective IA générative 2025 est l’abandon des modèles dits « cousus »1. Jusqu’ici, on greffait souvent un modèle de vision sur un modèle de langage (LLM). En 2025, des géants comme GPT-5 ou le très récent Mistral Large 3 ont imposé la « fusion précoce » (early fusion)2.

Contrairement aux anciennes architectures, ces modèles traitent le texte, l’image et l’audio au sein d’un seul et même flux de données (tokens). Résultat ? L’IA possède désormais de véritables « yeux ». Cette compréhension profonde lui permet d’appréhender :

  • L’espace et les textures : elle ne « devine » plus la rugosité d’un tissu, elle la comprend physiquement.
  • Les émotions vocales : l’audio n’est plus transcrit en texte pour être compris ; l’IA saisit l’ironie, la fatigue ou l’enthousiasme directement dans l’onde sonore, sans aucune perte d’information.

Avec « GPT App », l’IA devient votre système d’exploitation

Pour les créateurs et les entreprises, 2025 a aussi marqué la fin de la fenêtre de chat isolée. Avec l’écosystème Apps GPT, l’IA s’est transformée en un véritable système d’exploitation. L’interface d’OpenAI permet désormais d’ouvrir Adobe Photoshop, Canva ou Excel directement dans sa propre fenêtre.

Ce n’est plus un simple gadget : grâce aux capacités de computer use, l’IA utiliserait l’interface logicielle exactement comme vous le feriez. Elle détecte les calques de votre fichier Photoshop, ajuste les marges de votre mise en page Canva ou crée des tableaux croisés dynamiques dans Excel en temps réel. C’est donc le signe de la fin de l’apprentissage logiciel fastidieux. Ne passez plus des heures à chercher comment effectuer un détourage complexe. En revanche, indiquez simplement à l’IA : « Ouvre Photoshop et détoure ce produit pour ma bannière Canva« , et l’exécution se fait sous vos yeux.

Quel bilan pour la vidéo en 2025 ?

Dans le domaine de la vidéo, nous connaissons en effet tous l’impact de VEO 3.1 sur la production de contenus vidéo. Mais la véritable rupture est venue de Sora 2 (une plateforme sociale qui permet de produire par IA des contenus audio-visuels prêts à publier) et Genie 3. Nous ne parlons plus de simples clips vidéo, mais de « world models » (modèles de monde). Ces systèmes ont franchi le mur de la cohérence : ils respectent désormais les lois de la physique et de la gravité. Si un objet tombe dans une scène générée, il rebondit de manière réaliste selon sa matière.

Découvrez d’autres modèles IA de génération de vidéos

Photo d'un jeune vidéaste qui monte un film sur PC dans son studio. Photo de IStock par EvgeniyShkolenko. Utilisée dans l'article "De Higgsfield à Runway : coup de projecteur sur les IA génératives qui mettent la vidéo à l’affiche", et retrospective IA générative 2025.
De Higgsfield à Runway : zoom sur les IA génératives qui mettent la vidéo à l’affiche

« L’univers de la création vidéo par intelligence artificielle connaît une véritable révolution. Longtemps cantonnées à des usages anecdotiques, les IA génératives de vidéo franchissent aujourd’hui un cap… » >> Lire la suite

D’après les utilisateurs réguliers d’IA, l’innovation la plus spectaculaire resterait l’interactivité de Google Genie 3. Pour la première fois, un simple prompt texte ou image peut entre autres générer un environnement 3D entièrement jouable. Vous pouvez vous y déplacer, transformant radicalement le métier de créateur.

  • Démocratisation du jeu vidéo : la frontière entre le cinéma et l’expérience interactive devient quasi inexistante.
  • Prototypage rapide : dans l’industrie cinématographique et publicitaire, on ne crée plus de simples storyboards, on « génère » des scènes interactives pour tester les angles de caméra.

🤖 Les agents IA, futurs collègues des travailleurs

C’est sans doute un des mots de l’année : l’agentivité. Nous sommes passés du chatbot (qui discute) à l’agent (qui exécute). Avec Claude 4.5 par exemple, Anthropic a perfectionné la capacité de l’IA à utiliser un ordinateur comme un humain (souris, clavier, navigation). C’est une révolution pour l’automatisation de contenu et les tâches administratives complexes. Mais 2 autres acteurs se également sont démarqués dans cette catégorie de notre rétrospective IA générative 2025.

« L’obstacle n’est plus la technologie, mais notre capacité managériale à intégrer ces nouveaux travailleurs numériques dans nos flux de travail. » — Rapport McKinsey 2025.

Manus, le pilier de l’autonomie

En mars 2025, la sortie de Manus a marqué un tournant définitif. Contrairement aux versions précédentes, Manus 1.6 possède une capacité de planification « long-horizon » qui lui permet de gérer des projets s’étalant sur plusieurs heures sans supervision humaine.

Image d'illustration pour l'article sur Manus AI. La photo est prise du dessus, on voit un clavier de MacBook pro sur la gauche ainsi qu'un smartphone à droite, dont l'écran affiche le logo de Manus AI. Photo de Pixabay.
Manus AI : L’agent intelligent autonome chinois ébahit et interroge

« Après l’impact de DeepSeek, un modèle IA plus économique et ouvert que ses homologues occidentaux, un nouvel agent autonome vient secouer l’industrie : Manus AI. Développé par la startup chinoise Monica… » >> Lire la suite

Il aurait pulvérisé certains records, avec un score de 86,5 % sur le benchmark GAIA, surpassant entre autres les outils de recherche d’OpenAI. Un utilisateur peut désormais lui confier une mission de haut niveau, telle que : « Recherche toutes les opportunités immobilières logistiques en Île-de-France, synthétise-les dans un tableau Excel et rédige un projet de mail personnalisé pour chaque agence ». Manus 1.6 navigue aussi sur le web, télécharge les documents, traite les erreurs de manière autonome et livre le résultat final prêt à l’emploi. Cette intelligence capable de « boucler la boucle » entre l’intention et l’action transforme radicalement la productivité en entreprise.

Avec Microsoft Copilot, l’IA devient un coéquipier

Microsoft a également transformé l’essai avec Copilot Studio et les Copilot Agents. L’IA n’est plus un assistant dans une barre latérale, mais un membre de l’équipe. Dans Word, Excel ou Teams, les agents peuvent désormais prendre des décisions, gérer des calendriers ou orchestrer des workflows complexes via la Power Platform. Microsoft aurait ainsi industrialisé l’agentivité, permettant aux entreprises d’atteindre des gains de productivité de 300 à 400 % sur certaines tâches administratives.

Logo de Microsoft Pilot, utilisé dans l'article sur ChatGPT Agent et la rétrospective IA générative 2025
Microsoft Copilot

⚡ L’obstacle toujours plus grand de l’infrastructure

Pour finir cette rétrospective IA générative 2025, parlons infrastructure. L’ascension fulgurante de l’IA s’est heurtée cette année aux limites de la réalité, transformant de fait la Silicon Valley en un secteur d’industrie lourde. Les besoins en eau et en énergie sont aussi exponentiels. En outre, le besoin colossal en puissance de calcul a propulsé des projets d’infrastructure hors normes comme Stargate3, une initiative à 500 milliards de dollars qui nécessite une coordination mondiale entre OpenAI, Microsoft et des fonds souverains.

La ruée énergétique des géants technologiques

Tout d’abord, cette soif de gigawatts a forcé les géants de la technologie à devenir des acteurs énergétiques de premier plan, signant des accords historiques pour relancer des centrales nucléaires, à l’image du projet de Three Mile Island4 avec Microsoft. L’IA n’est plus seulement une affaire de code, c’est un défi de génie civil et de production d’énergie décarbonée.

Le silicium, un argument géopolitique

Cette contrainte matérielle s’est ensuite doublée d’une concurrence sans précédent. Sur le front du silicium, Nvidia maintient son hégémonie avec ses puces Blackwell, mais doit faire face à une Chine qui accélère son indépendance technologique via des champions comme Huawei, parvenant à contourner les restrictions pour produire des puces d’inférence compétitives.

La guerre des talents

En parallèle, une véritable « Guerre des Talents » a fait rage tout au long de l’année. En effet, Meta, sous l’impulsion d’un Mark Zuckerberg très agressif, a massivement recruté les meilleurs chercheurs d’OpenAI et de Google DeepMind en proposant des rémunérations records dépassant les dizaines de millions de dollars. Cette concentration de cerveaux, de puces et d’énergie dessine alors un paysage où seuls quelques acteurs mondiaux pourront maintenir la cadence de la prochaine loi d’échelle.


Rétrospective IA générative 2025 : un saut vers l’IA utile

En résumé, 2025 a transformé l’intelligence artificielle générative en une utilité publique, presque invisible tant elle s’intègre partout. Nous sommes donc passés d’un outil de rédaction à une véritable usine cognitive. La guerre de l’efficacité est ainsi lancée, les agents autonomes prennent leur poste et l’infrastructure mondiale se réorganise autour de cette nouvelle puissance. Pour les entreprises, le défi n’est plus de tester l’IA, mais de l’industrialiser pour ne pas rester sur le quai de cette accélération historique.


💡 Prêt à transformer votre stratégie de contenu en 2026 ?

Chez LabSense, nous transformons ces avancées technologiques en résultats concrets pour votre entreprise. Forts de 10 ans d’expertise en R&D et de plus de 400 millions de textes produits, nous vous aidons à passer à l’échelle. Contactez-nous !

  1. Un modèle « cousu » désigne une architecture d’intelligence artificielle composée de plusieurs modèles spécialisés distincts que l’on a assemblés (ou « greffés ») ensemble a posteriori pour traiter différents types de données. Concrètement, cela signifie qu’au lieu d’avoir un seul cerveau capable de tout comprendre, on connecte un module de vision (pour voir) à un modèle de langage (pour parler). Dans cette configuration, l’information subit souvent une conversion intermédiaire (par exemple, l’image est traduite en description textuelle avant d’être analysée), ce qui entraîne une perte de nuance. ↩︎
  2. Un seul modèle traite simultanément le texte, l’image et le son dans un même flux, lui permettant de véritablement « comprendre » la matière ou l’émotion sans étape de traduction. ↩︎
  3. Le projet Stargate est une coentreprise créée fin 2024, puis désignée par le Président Donald Trump en 2025 pour investir jusqu’à 500 milliards de dollars au cours des quatre prochaines années dans la construction d’une nouvelle infrastructure d’IA aux États-Unis. || Source ↩︎
  4. Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie redémarre au service de Microsoft afin d’exploiter l’énergie produite par l’un des réacteurs et alimenter ses centres de données aux Etats-Unis. ↩︎