[{"data":1,"prerenderedAt":783},["ShallowReactive",2],{"/fr-fr/blog/what-is-mlops":3,"navigation-fr-fr":36,"banner-fr-fr":441,"footer-fr-fr":451,"blog-post-authors-fr-fr-GitLab France Team":661,"blog-related-posts-fr-fr-what-is-mlops":676,"blog-promotions-fr-fr":721,"next-steps-fr-fr":774},{"id":4,"title":5,"authorSlugs":6,"body":8,"categorySlug":9,"config":10,"content":14,"description":8,"extension":24,"isFeatured":11,"meta":25,"navigation":26,"path":27,"publishedDate":19,"seo":28,"stem":32,"tagSlugs":33,"__hash__":35},"blogPosts/fr-fr/blog/what-is-mlops.yml","What Is Mlops",[7],"gitlab-france-team",null,"ai-ml",{"featured":11,"template":12,"slug":13},false,"BlogPost","what-is-mlops",{"title":15,"description":16,"authors":17,"date":19,"body":20,"tags":21,"category":9,"heroImage":23},"Qu’est-ce que MLOps ?","Guide complet MLOps : comment il rapproche data science et ingénierie, automatise les workflows, assure la reproductibilité, la gouvernance et la conformité.",[18],"GitLab France Team","2025-11-07","**Le MLOps (Machine Learning Operations) désigne l’ensemble des pratiques\nqui permettent de déployer, surveiller et maintenir des modèles de machine\nlearning en production, de façon fiable et durable.**\n\n\nMettre en production un modèle n’est pas qu’une question d’entraînement. Entre la préparation des données, le déploiement, le suivi des performances et la maintenance, les équipes se heurtent à une complexité qui dépasse largement le simple développement. Résultat : des délais qui s’allongent, des coûts qui explosent, une fiabilité qui s’effondre.\n\n\n**En résumé : le MLOps est au machine learning ce que le [DevOps](https://about.gitlab.com/fr-fr/topics/devops/ \"Qu'est-ce que le DevOps ?\") est au développement logiciel, c'est-à-dire une approche structurée qui automatise les workflows, améliore la collaboration entre les équipes data science et d’ingénierie, et garantit la continuité des modèles en production.**\n\n\nEn organisant tout le cycle de vie des modèles, de la conception à l’amélioration continue, le MLOps permet aux organisations de tirer un maximum de valeur de leurs projets d’IA et d’inscrire ces derniers dans la durée.\n\n\n> **[&rarr; Essayez GitLab Ultimate et GitLab Duo Enterprise gratuitement.](https://about.gitlab.com/fr-fr/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr)**\n\n\n## Définition et rôle du MLOps\n\n\nLe terme **MLOps** vient de la contraction de *Machine Learning et Operations*. Il désigne l’ensemble des pratiques, outils et méthodes qui permettent de gérer le cycle de vie complet des modèles de machine learning, depuis leur conception jusqu’à leur exploitation en production.\n\n\nL’idée centrale est de **rapprocher deux univers souvent séparés** : celui des **Data Scientists**, qui développent et entraînent les modèles, et celui des **équipes d'ingénierie**, qui doivent les déployer, les surveiller et les maintenir. En créant ce lien, le MLOps assure une continuité entre l’expérimentation et l’utilisation réelle.\n\n\nSon rôle dépasse donc la simple automatisation. Le MLOps vise à garantir la fiabilité des modèles dans le temps, à fluidifier la collaboration entre équipes et à donner aux organisations un cadre pour [exploiter le machine learning de manière industrielle et durable](https://about.gitlab.com/fr-fr/the-source/ai/6-strategies-to-help-developers-accelerate-ai-adoption/).\n\n\n![Cartographie du concept MLOps](https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517964/cwgub5rfekc0wzcms012.png)\n\n\n## Pourquoi le MLOps est-il devenu indispensable ?\n\n\nLe machine learning s’est imposé bien au-delà de la recherche. Les cas d’usage se multiplient : détection de fraude en temps réel, recommandations personnalisées, maintenance prédictive, assistants génératifs. Ces modèles ne restent pas au stade expérimental : ils doivent tourner en production, souvent avec des exigences de latence strictes et sous des contraintes fortes.\n\n\nOr, les difficultés apparaissent rapidement. Les **cycles de déploiement s’allongent**, les modèles se dégradent dès que les données évoluent, et les résultats deviennent difficiles à auditer. Sans optimisation, les coûts d’infrastructure s’envolent. Ces freins sont désormais bien connus des équipes.\n\n\nLe MLOps apporte une réponse structurée à ces problèmes. Il standardise le **déploiement**, le **suivi** et la **gouvernance** des modèles. Il permet aussi de préparer l’avenir : intégrer l’AutoML, gérer des modèles génératifs, se conformer aux nouvelles réglementations comme l’AI Act (règlement européen sur l’intelligence artificielle).\n\n\nPour beaucoup d’organisations, l’adoption du MLOps marque une étape de **maturité**. Elle conditionne la capacité à transformer des prototypes en actifs pérennes et à inscrire l’IA dans une stratégie d’entreprise crédible.\n\n\n## Quels sont les avantages du MLOps ?\n\n\nLe MLOps ne se résume pas à une méthode : c’est un changement de culture qui rend le machine learning **plus rapide, plus fiable et plus scalable** à chaque étape du cycle de vie du développement logiciel.\n\n\n### 1. Des équipes enfin alignées\n\n\nLe MLOps supprime les silos entre Data Scientists, développeurs et ingénieurs Ops. En partageant les mêmes pipelines et le même code source, chacun visualise les mêmes métriques et parle le même langage. Les modèles passent de la R&D à la production sans rupture ni perte d’information.\n\n\n### 2. Un passage en production sans friction\n\n\nGrâce à l’automatisation CI/CD, les étapes d’entraînement, de test et de déploiement s’enchaînent sans intervention manuelle. Ce qui prenait des semaines se fait en quelques heures, avec des workflows reproductibles et contrôlés via des plateformes intégrées comme GitLab.\n\n\n### 3. Des modèles traçables et reproductibles\n\n\nChaque version de modèle, de jeu de données et de code est archivée. En cas de dérive, il est possible de rejouer une expérience, d’identifier la cause ou de restaurer une version stable. Cette traçabilité transforme le machine learning en processus vérifiable et durable.\n\n\n### 4. Une supervision continue en production\n\n\nLe MLOps ne s’arrête pas au déploiement. Les performances sont surveillées en continu pour détecter les dérives. Des outils comme Prometheus ou Grafana peuvent être intégrés à GitLab afin d’alerter les équipes ou déclencher un réentraînement automatique.\n\n\n### 5. Une gouvernance intégrée par conception\n\n\nLe respect des exigences de sécurité, de conformité et d’auditabilité fait partie du pipeline. Documentation automatique, contrôle des accès et journaux d’audit garantissent la transparence et la conformité réglementaire sans effort supplémentaire.\n\n\n## Principes et bonnes pratiques du MLOps\n\n\nLe MLOps ne se limite pas à des concepts. C’est aussi un ensemble de pratiques précises qui transforment un modèle expérimental en un service fiable et durable. Ces pratiques couvrent toute la chaîne logicielle : développement, déploiement, suivi et gouvernance.\n\n\n### Automatisation des workflows (CI/CD/CT)\n\n\nUn projet de machine learning classique enchaîne plusieurs étapes répétitives : \n\n\n1. Préparation des données\n\n2. Entraînement\n\n3. Tests\n\n4. Packaging\n\n5. Déploiement\n\n\nRéalisées manuellement, elles s’avèrent lentes et fragiles. L’automatisation transforme ce parcours en une chaîne continue et prévisible.\n\n\nAvec des **[pipelines CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\")**, chaque modification de code ou de données déclenche automatiquement les étapes nécessaires : entraînement, validation, déploiement. Les modèles passent en production plus vite, avec moins d’erreurs.\n\n\n**[GitLab CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/ \"Qu'est-ce que le CI/CD ?\")**, déjà largement adopté dans le développement logiciel, constitue un socle naturel pour orchestrer ces pipelines MLOps.\n\n\n**Le CT (Continuous Training)** complète le CI/CD en automatisant le réentraînement des modèles. Dès qu'une dérive est détectée ou qu'un seuil de performance est franchi, un nouveau cycle d'entraînement peut être déclenché automatiquement. Cette pratique maintient les modèles alignés avec l'évolution des données sans intervention manuelle.\n\n\n**Exemple** : ce fichier YAML minimaliste illustre un pipeline ML typique orchestré sur GitLab CI/CD :\n\n\n* Ingestion et préparation des données,\n\n* Entraînement et sauvegarde du modèle,\n\n* Tests et évaluation,\n\n* Déploiement automatisé en production.\n\n\n```yaml\n\nimage: python:3.9\n\n\nbefore_script: \n  - pip install --no-cache-dir -r requirements.txt \n\nstages:\n  - prepare\n  - train\n  - test\n  - deploy\n\nprepare_data:\n  stage: prepare\n  script:\n    - python scripts/prepare_data.py\n  artifacts:\n    paths:\n      - data/processed/\n    expire_in: 7 days\n\ntrain_model:\n  stage: train\n  script:\n    - python scripts/train.py --data data/processed/\n  artifacts:\n    paths:\n      - models/model.pkl\n    expire_in: 30 days\n\ntest_model:\n  stage: test\n  script:\n    - pytest tests/\n    - python scripts/evaluate.py models/model.pkl\n\ndeploy_model:\n  stage: deploy\n  script:\n    - bash scripts/deploy.sh models/model.pkl\n  when: on_success\n```\n\n\n### Gestion des versions (données, modèles, code)\n\n\nSans gestion rigoureuse des versions, il est impossible de savoir sur quelles données un modèle a été entraîné ou de revenir à un état antérieur en cas de dérive.\n\n\nLe MLOps généralise le **versionnage systématique**. Chaque jeu de données (dataset), chaque modèle et chaque pipeline est archivé et relié au code correspondant. GitLab, en s’appuyant sur [Git](https://about.gitlab.com/fr-fr/blog/2024/10/08/what-is-git/ \"Qu'est-ce que Git ?\"), apporte cette [logique de gestion des versions](https://about.gitlab.com/fr-fr/topics/version-control/ \"Qu'est-ce que le contrôle de version ?\") nativement. Étendue aux workflows ML, elle garantit une traçabilité complète de bout en bout.\n\n\nNote : le [registre de modèles de GitLab](https://docs.gitlab.com/user/project/ml/model_registry/) permet de versionner et de cataloguer les modèles ML aux côtés du code source, créant ainsi une source unique de vérité pour l'ensemble du projet.\n\n\n### Validation et qualité des données et modèles\n\n\nUn modèle performant dans un environnement de test peut échouer en production. Pour éviter ce décalage, le MLOps introduit des validations à plusieurs niveaux.\n\n\n* **Qualité des données** : détection des valeurs aberrantes, cohérence entre jeux d’entraînement et de validation, suivi de la complétude.\n\n* **Robustesse des modèles** : tests de performance, vérification des biais, évaluation sur des scénarios métiers représentatifs.\n\n\nCes contrôles intégrés dans le pipeline réduisent le risque de déployer des modèles fragiles ou biaisés.\n\n\n### Monitoring et détection de la dérive\n\n\nUn modèle n’est jamais figé. Les données évoluent, les comportements changent, et ses performances se dégradent avec le temps. \n\n\nLe MLOps intègre un **monitoring continu** des métriques techniques et métiers. Il détecte les dérives statistiques, génère des alertes et peut même déclencher un réentraînement automatisé. Cette boucle prolonge la durée de vie des modèles et maintient leur alignement avec les besoins opérationnels.\n\n\n### Ingénierie des données\n\n\nBeaucoup de projets échouent non pas à cause des modèles, mais à cause de **données instables ou mal structurées**. C’est pourquoi l’ingénierie des données est une composante essentielle du MLOps.\n\n\nElle repose sur plusieurs pratiques : définir des contrats de données clairs entre ceux qui produisent et ceux qui utilisent les données, surveiller en continu la qualité et la disponibilité des flux de données, et choisir le bon mode de traitement - batch pour les volumes massifs, streaming pour le temps réel. Ces fondations garantissent que les modèles s’appuient sur des données fiables et stables.\n\n\nUn composant clé de cette démarche est le Feature Store, qui centralise et versionne les caractéristiques (features) utilisées par les modèles. Il garantit la cohérence entre l'entraînement et la production, évite la duplication et accélère le développement de nouveaux modèles.\n\n\n### LLMOps pour les modèles génératifs\n\n\nAu-delà des modèles traditionnels, les modèles génératifs introduisent des défis inédits : prompts évolutifs, coûts d’inférence élevés, évaluation de la qualité plus complexe.\n\n\nLe **LLMOps** transpose les principes du MLOps à ce contexte. Il inclut la gestion des versions de prompts, l’intégration des retours utilisateurs et le suivi détaillé des coûts d’exécution. Dans certains environnements, une seule application peut générer des coûts d’inférence de plusieurs milliers d’euros par jour : garder la maîtrise de ces dépenses devient un impératif stratégique. \n\n\n## Cycle de vie d’un projet MLOps\n\n\nLe MLOps ne se résume pas à des principes. C’est avant tout une manière d’organiser le cycle de vie d’un projet de machine learning, depuis la préparation des données jusqu’à l’amélioration continue en production. Chaque étape est reliée aux autres et gagne en efficacité grâce à une approche structurée.\n\n\n### Collecte et préparation des données\n\n\nLa donnée est le point de départ de tout projet de machine learning. Pourtant, elle est aussi l’une de ses principales sources de difficulté. Plusieurs études montrent que la préparation des données peut mobiliser entre 50 % et 80 % du temps des Data Scientists, selon la qualité des sources et le degré d’automatisation disponible.\n\n\nLe MLOps formalise ce travail avec des pipelines d’ingestion automatisés, des contrats de données entre équipes et des validations systématiques (complétude, cohérence, détection d’anomalies). Ces mécanismes réduisent les erreurs et sécurisent les étapes suivantes.\n\n\nCette base solide optimise les étapes d’entraînement avec les meilleures conditions possibles.\n\n\n### Entraînement des modèles\n\n\nUne fois les données prêtes, l’objectif n’est pas seulement d’obtenir de bonnes métriques mais aussi de garantir la **reproductibilité** des résultats.\n\n\nLe MLOps renforce cette étape avec deux leviers :\n\n\n* le **versionnage systématique** des données, du code et des modèles ;\n\n* l’**automatisation des expériences** via des pipelines.\n\n\nChaque essai est documenté, chaque paramètre enregistré. Les équipes peuvent comparer objectivement les résultats et identifier rapidement les configurations les plus prometteuses.\n\n\n### Mise en production\n\n\nUn modèle performant en environnement de développement n’a pas d’impact tant qu’il n’est pas utilisé. La mise en production est donc une étape clé, mais souvent la plus délicate.\n\n\nLe MLOps simplifie ce passage grâce à l’automatisation : packaging standardisé, tests intégrés, déploiement reproductible. Là où une mise en production pouvait nécessiter plusieurs semaines de coordination, elle peut désormais être réalisée en quelques jours. \n\n\nLà encore, **GitLab CI/CD** offre une base solide pour orchestrer ces déploiements continus, en s’appuyant sur des outils déjà familiers aux [équipes DevOps](https://about.gitlab.com/fr-fr/topics/devops/build-a-devops-team/ \"Equipes DevOps\").\n\n\n### Suivi des performances et amélioration continue\n\n\nUne fois en ligne, le modèle est confronté à des données vivantes. Ses performances évoluent, parfois à la baisse. \n\n\nCertaines équipes dépassent le simple monitoring en implémentant un **réentraînement automatisé** dès qu’un seuil de dégradation des performances est franchi. Cette boucle d’amélioration continue assure que le modèle reste pertinent et aligné avec les besoins du métier.\n\n\n## Les rôles dans un projet MLOps\n\n\nUn projet MLOps ne repose pas sur une seule équipe mais sur la complémentarité de plusieurs profils. Chacun joue un rôle clé dans la conception, le déploiement et la maintenance des modèles.\n\n\n### Data Scientists\n\n\nLes Data Scientists restent les architectes des modèles. Leur rôle est d’**explorer les données**, de concevoir les algorithmes et de tester différentes approches. Ils définissent aussi les métriques qui guideront l’évaluation des performances.\n\n\nDans une démarche MLOps, leur mission évolue. Les notebooks deviennent reproductibles, les scripts s’intègrent dans des pipelines, et les modèles sont versionnés. Ce changement de cadre évite que leurs travaux ne restent bloqués au stade de prototype et facilite leur passage en production.\n\n\n### Data Engineers et équipes DevOps\n\n\nLes modèles n’ont de valeur que s’ils peuvent être exploités. Les Data Engineers et les équipes DevOps jouent un rôle central pour transformer les expérimentations en solutions robustes.\n\n\n* Les **Data Engineers** construisent et maintiennent les pipelines d’ingestion, s’assurent de la qualité et de la disponibilité des flux de données, et posent les fondations de la gouvernance des données.\n\n* Les **équipes DevOps** orchestrent les déploiements, automatisent les tests et surveillent les environnements. Elles appliquent au machine learning les pratiques qui ont déjà révolutionné le développement logiciel : le CI/CD, le monitoring, la gestion des accès.\n\n\nAvec des plateformes comme **GitLab**, ces équipes disposent d’outils déjà éprouvés pour intégrer leurs workflows MLOps sans multiplier les outils et plateformes.\n\n\n### Coordination avec les équipes métiers\n\n\nUn modèle ne se juge pas seulement à la précision de ses prédictions. Il doit aussi générer un impact visible pour l’organisation. C’est là que les équipes métiers entrent en jeu.\n\n\nElles définissent les **indicateurs clés de succès**, apportent leur expertise terrain et valident la pertinence des modèles dans des contextes concrets. Dans une démarche MLOps, cette collaboration devient permanente plutôt que ponctuelle. Les retours alimentent l’évaluation, influencent les priorités et guident les décisions de réentraînement.\n\n\nSans cette boucle de validation, même un modèle techniquement performant peut manquer sa cible et échouer à apporter de la valeur réelle.\n\n\n## Quelles sont les erreurs fréquentes à éviter ?\n\n\nMême avec une démarche MLOps structurée, certains écueils reviennent régulièrement. Ils ralentissent les projets et compromettent leur valeur en production.\n\n\n### Trop d’outils sans cadre clair\n\n\nUtiliser des outils spécialisés peut sembler une bonne idée : un pour l’ingestion, un autre pour l’entraînement, un troisième pour le monitoring, etc. Mais à mesure que la pile technologique s’étoffe, la complexité explose. Les coûts augmentent et la visibilité se réduit.\n\n\nLe MLOps repose au contraire sur une **vision unifiée**. Les pipelines doivent s’appuyer sur des briques cohérentes, idéalement regroupées au sein de plateformes intégrées comme **GitLab**, qui limitent la fragmentation et assurent une traçabilité de bout en bout.\n\n\n### Absence de métriques métiers\n\n\nUn modèle peut obtenir de très bons scores techniques tout en restant inutile pour l’organisation. L’absence d’indicateurs métiers conduit à déployer des modèles performants en apparence, mais **déconnectés des besoins réels**. Le suivi des métriques business (taux de fraude détecté, satisfaction client, temps de traitement gagné) doit compléter les métriques classiques du machine learning.\n\n\n### Données instables et dette technique\n\n\nSans pipelines de données robustes, les modèles héritent de jeux instables ou non représentatifs. À court terme, cela crée des résultats imprévisibles. À long terme, la multiplication des correctifs **génère une dette technique** qui alourdit chaque évolution. Le MLOps impose des pratiques d’ingénierie des données et une supervision continue pour maintenir des flux de données fiables et éviter cet effet boule de neige.\n\n\n## MLOps vs DevOps : quelles différences ?\n\n\nLe MLOps s’inspire directement de l’approche DevOps. Les deux disciplines partagent une même philosophie : rapprocher le développement et les opérations, réduire les délais et fiabiliser les déploiements grâce à l’automatisation. Mais leurs applications divergent dès que l’on touche aux modèles de machine learning.\n\n\n### Points communs\n\n\nLes deux approches reposent sur la même boîte à outils : **pipelines CI/CD, monitoring et gestion des versions**. Dans les deux cas, le but reste identique : **livrer rapidement des artefacts fiables en production.**\n\n\n### Ce qui les différencie\n\n\nLa différence fondamentale vient de la **nature des artefacts**. En DevOps, nous déployons des applications statiques. En MLOps, nous déployons des **modèles issus de données mouvantes**.\n\n\nCette spécificité entraîne cinq conséquences majeures :\n\n\n* nécessité de **versionner des données et des modèles**, pas seulement le code ;\n\n* intégration de **validations métiers** en plus des tests techniques ;\n\n* **surveillance continue des performances**, car un modèle se dégrade dans le temps ;\n\n* **nature expérimentale** : le même code peut produire des résultats différents selon les données et les paramètres utilisés, nécessitant un tracking systématique de chaque expérience ;\n\n* **optimisation itérative des hyperparamètres** (learning rate, architecture, etc.) qui doivent être explorés, comparés et versionnés pour identifier la meilleure configuration.\n\n\n### La place du MLOps par rapport à DataOps et ModelOps\n\n\nLe MLOps ne vit pas en vase clos. Il se situe à la croisée de deux autres disciplines : le **DataOps**, centré sur la qualité et la gouvernance des données, et le **ModelOps**, focalisé sur la gestion et le déploiement des modèles.\n\n\nEn combinant ces deux dimensions, le MLOps prend en charge **l’ensemble du cycle : de la fiabilité des données jusqu’à l’industrialisation des modèles.**\n\n\n## Tendances à suivre\n\n\nLe MLOps évolue rapidement, porté par l’industrialisation de l’IA et l’émergence de nouvelles contraintes techniques et réglementaires. Plusieurs tendances structurent déjà les pratiques des prochaines années.\n\n\n### Serverless MLOps et MLOps distribué\n\n\nL’adoption croissante du **serverless** simplifie l’exécution des pipelines ML : les ressources s’adaptent automatiquement à la charge, réduisant coûts et complexité. Parallèlement, le **MLOps distribué à la périphérie (edge)** prend de l’ampleur, notamment dans l’IoT et les applications embarquées. Les modèles s’exécutent directement au plus près des données, avec moins de latence et plus de réactivité.\n\n\n### Nouvelles exigences de gouvernance et de régulation\n\n\nAvec l’**[AI Act européen](https://www.europarl.europa.eu/topics/fr/article/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle)** entré en vigueur en 2024, la conformité devient un enjeu stratégique. Les organisations doivent prouver la traçabilité, l’explicabilité et la robustesse de leurs modèles. Le MLOps devient un levier essentiel pour intégrer dès aujourd’hui ces obligations, plutôt que de subir des blocages lors d’un audit ou d’un lancement produit.\n\n\n## Ressources et outils pratiques\n\n\nLe MLOps ne s’arrête pas aux concepts. Il prend forme dans des workflows, des métriques et des règles de gouvernance que les équipes peuvent mettre en œuvre dans leurs projets.\n\n\n### Checklist pour lancer un pipeline MLOps\n\n\nMettre en place un pipeline MLOps ne s’improvise pas. Voici une checklist pour démarrer dans de bonnes conditions :\n\n\n* Définir les objectifs métiers et les indicateurs clés de performance (KPI) ;\n\n* Préparer des pipelines de données avec des règles de validation automatisées ;\n\n* Versionner le code, les données et les modèles ;\n\n* Intégrer entraînement, tests et déploiement dans une chaîne CI/CD ;\n\n* Prévoir un monitoring continu des performances et de la dérive ;\n\n* Documenter et suivre chaque étape pour la gouvernance et la conformité.\n\n\n### Exemples de métriques à suivre en production\n\n\nUn modèle ne peut être piloté sans indicateurs. Les métriques à surveiller couvrent à la fois les aspects techniques et métiers :\n\n\n* **Aspects techniques** : précision, rappel, F1-score, latence, taux d’erreur ;\n\n* **Aspects métiers** : taux de fraude détectée, réduction des coûts opérationnels, satisfaction client ;\n\n* **Aspects opérationnels** : consommation de ressources, coût par prédiction, empreinte énergétique.\n\n\nLe suivi de ces métriques permet d’anticiper la dérive, d’ajuster les modèles et de prouver leur valeur ajoutée.\n\n\n## Conclusion : l’importance du MLOps pour industrialiser l’IA\n\n\nDe nombreux projets de machine learning échouent non pas à cause des modèles eux-mêmes, mais parce qu’ils ne franchissent pas le cap de la production. Trop souvent, ils restent confinés aux notebooks, difficiles à maintenir et incapables de s’adapter à des données changeantes. Le MLOps est né pour combler cet écart.\n\n\nEn automatisant les étapes critiques, en assurant la traçabilité des données et des modèles et en intégrant un suivi continu, il transforme des expérimentations isolées en **actifs durables**. Il ne s’agit plus seulement de tester une idée, mais de bâtir un système capable de créer de la valeur au fil du temps.\n\n\nL’adoption du MLOps n'est pas qu'une approche technique : c’est un **levier stratégique**. Il accélère le passage de l’expérimentation au déploiement, réduit les coûts d’itération et donne aux métiers la confiance nécessaire pour utiliser l’IA à grande échelle.\n\n\nPour aller plus loin, les organisations ont besoin d’outils qui favorisent cette approche intégrée. Des plateformes comme **GitLab**, déjà au cœur des pratiques DevOps, offrent une base solide pour orchestrer les pipelines, gérer les versions et rapprocher les équipes. Le MLOps devient alors non seulement une méthode, mais une infrastructure de confiance pour industrialiser l’intelligence artificielle.\n\n\n## GitLab, un socle naturel pour le MLOps\n\n\nMettre en œuvre une démarche MLOps ne consiste pas à accumuler des outils, mais à créer une chaîne cohérente reliant développement, données et production. GitLab offre précisément cette continuité : un environnement unique où les équipes peuvent versionner le code, orchestrer les pipelines CI/CD, monitorer les modèles et documenter chaque étape du cycle de développement logiciel. En intégrant les pratiques MLOps dans une plateforme déjà familière aux équipes DevOps, les organisations évitent la complexité d’une infrastructure fragmentée et accélèrent la transformation de leurs projets de machine learning en solutions opérationnelles.\n\n\n## FAQ sur le MLOps\n\n\n### Quelle est la différence entre MLOps et DevOps ?\n\n\nLe DevOps s’applique au développement logiciel classique, où l’artefact final est une application statique. Le MLOps reprend cette logique d’automatisation et de collaboration, mais l’adapte aux spécificités du machine learning. La différence majeure : un modèle n’est pas seulement du code, c’est aussi des données qui évoluent dans le temps. Le MLOps ajoute donc le versionnage des jeux de données (datasets) et des modèles, la validation métier et le suivi continu des performances.\n\n\n### Quels outils utiliser pour mettre en place le MLOps ?\n\n\nUn écosystème varié existe : plateformes de CI/CD, solutions de monitoring, outils de versioning de données ou de gestion de modèles. L’enjeu est moins d’accumuler des briques que d’assurer leur intégration. Des plateformes comme GitLab, déjà adoptées pour le DevOps et le DevSecOps, offrent une base unifiée qui facilite l’automatisation, la collaboration et la traçabilité dans un cadre MLOps.\n\n\n### Comment gérer la dérive d’un modèle en production ?\n\n\nLa dérive survient lorsque les données en production ne ressemblent plus à celles utilisées pour l’entraînement, entraînant une baisse de performance. Le MLOps prévoit un monitoring continu des métriques, des alertes en cas d’écart et parfois des mécanismes de réentraînement automatique. La clé est de définir dès le départ les seuils critiques et les métriques métiers à surveiller.\n\n\n### Comment mesurer le succès d’une démarche MLOps ?\n\n\nLe succès ne se limite pas aux performances techniques des modèles. Il se mesure aussi par :\n\n\n* La **réduction du temps** nécessaire pour passer de l’expérimentation à la production ;\n\n* La **stabilité et la traçabilité** des modèles déployés ;\n\n* L’**impact métier réel**, via des indicateurs comme le gain de productivité, la baisse des coûts ou l’amélioration de l’expérience client.\n\n\nUne démarche MLOps réussie combine donc efficacité opérationnelle et création de valeur mesurable.\n\n\n> **[&rarr; Essayez GitLab Ultimate et GitLab Duo Enterprise gratuitement.](https://about.gitlab.com/fr-fr/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr)**\n",[22],"AI/ML","https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517473/wo6vgpvabalmnzqgzulh.jpg","yml",{},true,"/fr-fr/blog/what-is-mlops",{"config":29,"title":30,"ogTitle":30,"description":31,"ogDescription":31,"ogImage":23},{"noIndex":11},"MLOps : de quoi s’agit-il et quels sont ses enjeux ?","Guide complet MLOps : comment il rapproche les équipes, automatise les workflows, assure la reproductibilité, la gouvernance et la conformité.","fr-fr/blog/what-is-mlops",[34],"aiml","nTJ4e4zXYXzfF2yArPsxPijEwqC6A2o6BjdEhtKN5Go",{"data":37},{"logo":38,"freeTrial":43,"sales":48,"login":53,"items":58,"search":368,"minimal":403,"duo":422,"pricingDeployment":431},{"config":39},{"href":40,"dataGaName":41,"dataGaLocation":42},"/fr-fr/","gitlab logo","header",{"text":44,"config":45},"Commencer un essai gratuit",{"href":46,"dataGaName":47,"dataGaLocation":42},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr&glm_content=default-saas-trial/","free trial",{"text":49,"config":50},"Contacter l'équipe commerciale",{"href":51,"dataGaName":52,"dataGaLocation":42},"/fr-fr/sales/","sales",{"text":54,"config":55},"Connexion",{"href":56,"dataGaName":57,"dataGaLocation":42},"https://gitlab.com/users/sign_in/","sign in",[59,86,183,188,289,349],{"text":60,"config":61,"cards":63},"Plateforme",{"dataNavLevelOne":62},"platform",[64,70,78],{"title":60,"description":65,"link":66},"La plateforme d'orchestration intelligente pour le DevSecOps",{"text":67,"config":68},"Découvrir notre plateforme",{"href":69,"dataGaName":62,"dataGaLocation":42},"/fr-fr/platform/",{"title":71,"description":72,"link":73},"GitLab Duo Agent Platform","L'IA agentique pour l'ensemble du cycle de développement logiciel",{"text":74,"config":75},"Découvrir GitLab Duo",{"href":76,"dataGaName":77,"dataGaLocation":42},"/fr-fr/gitlab-duo-agent-platform/","gitlab duo agent platform",{"title":79,"description":80,"link":81},"Choisir GitLab","Découvrez les principales raisons pour lesquelles les entreprises choisissent GitLab",{"text":82,"config":83},"En savoir plus",{"href":84,"dataGaName":85,"dataGaLocation":42},"/fr-fr/why-gitlab/","why gitlab",{"text":87,"left":26,"config":88,"link":90,"lists":94,"footer":165},"Produit",{"dataNavLevelOne":89},"solutions",{"text":91,"config":92},"Voir toutes les solutions",{"href":93,"dataGaName":89,"dataGaLocation":42},"/fr-fr/solutions/",[95,120,143],{"title":96,"description":97,"link":98,"items":103},"Automatisation","CI/CD et automatisation pour accélérer le déploiement",{"config":99},{"icon":100,"href":101,"dataGaName":102,"dataGaLocation":42},"AutomatedCodeAlt","/fr-fr/solutions/delivery-automation/","automated software delivery",[104,108,111,116],{"text":105,"config":106},"CI/CD",{"href":107,"dataGaLocation":42,"dataGaName":105},"/fr-fr/solutions/continuous-integration/",{"text":71,"config":109},{"href":76,"dataGaLocation":42,"dataGaName":110},"gitlab duo agent platform - product menu",{"text":112,"config":113},"Gestion du code source",{"href":114,"dataGaLocation":42,"dataGaName":115},"/fr-fr/solutions/source-code-management/","Source Code Management",{"text":117,"config":118},"Livraison de logiciels automatisée",{"href":101,"dataGaLocation":42,"dataGaName":119},"Automated software delivery",{"title":121,"description":122,"link":123,"items":128},"Sécurité","Livrez du code plus rapidement sans compromettre la sécurité",{"config":124},{"href":125,"dataGaName":126,"dataGaLocation":42,"icon":127},"/fr-fr/solutions/application-security-testing/","security and compliance","ShieldCheckLight",[129,133,138],{"text":130,"config":131},"Tests de sécurité des applications",{"href":125,"dataGaName":132,"dataGaLocation":42},"Application security testing",{"text":134,"config":135},"Sécurité de la chaîne d'approvisionnement logicielle",{"href":136,"dataGaLocation":42,"dataGaName":137},"/fr-fr/solutions/supply-chain/","Software supply chain security",{"text":139,"config":140},"Conformité logicielle",{"href":141,"dataGaName":142,"dataGaLocation":42},"/fr-fr/solutions/software-compliance/","Software Compliance",{"title":144,"link":145,"items":150},"Mesures",{"config":146},{"icon":147,"href":148,"dataGaName":149,"dataGaLocation":42},"DigitalTransformation","/fr-fr/solutions/visibility-measurement/","visibility and measurement",[151,155,160],{"text":152,"config":153},"Visibilité et mesures",{"href":148,"dataGaLocation":42,"dataGaName":154},"Visibility and Measurement",{"text":156,"config":157},"Gestion de la chaîne de valeur",{"href":158,"dataGaLocation":42,"dataGaName":159},"/fr-fr/solutions/value-stream-management/","Value Stream Management",{"text":161,"config":162},"Données d'analyse et informations clés",{"href":163,"dataGaLocation":42,"dataGaName":164},"/fr-fr/solutions/analytics-and-insights/","Analytics and insights",{"title":166,"items":167},"GitLab pour",[168,173,178],{"text":169,"config":170},"Entreprises",{"href":171,"dataGaLocation":42,"dataGaName":172},"/fr-fr/enterprise/","enterprise",{"text":174,"config":175},"PME",{"href":176,"dataGaLocation":42,"dataGaName":177},"/fr-fr/small-business/","small business",{"text":179,"config":180},"Secteur public",{"href":181,"dataGaLocation":42,"dataGaName":182},"/fr-fr/solutions/public-sector/","public sector",{"text":184,"config":185},"Tarifs",{"href":186,"dataGaName":187,"dataGaLocation":42,"dataNavLevelOne":187},"/fr-fr/pricing/","pricing",{"text":189,"config":190,"link":192,"lists":196,"feature":276},"Ressources",{"dataNavLevelOne":191},"resources",{"text":193,"config":194},"Afficher toutes les ressources",{"href":195,"dataGaName":191,"dataGaLocation":42},"/fr-fr/resources/",[197,230,248],{"title":198,"items":199},"Premiers pas",[200,205,210,215,220,225],{"text":201,"config":202},"Installation",{"href":203,"dataGaName":204,"dataGaLocation":42},"/fr-fr/install/","install",{"text":206,"config":207},"Guides de démarrage",{"href":208,"dataGaName":209,"dataGaLocation":42},"/fr-fr/get-started/","quick setup checklists",{"text":211,"config":212},"Apprentissage",{"href":213,"dataGaLocation":42,"dataGaName":214},"https://university.gitlab.com/","learn",{"text":216,"config":217},"Documentation sur le produit",{"href":218,"dataGaName":219,"dataGaLocation":42},"https://docs.gitlab.com/","product documentation",{"text":221,"config":222},"Vidéos sur les bonnes pratiques",{"href":223,"dataGaName":224,"dataGaLocation":42},"/fr-fr/getting-started-videos/","best practice videos",{"text":226,"config":227},"Intégrations",{"href":228,"dataGaName":229,"dataGaLocation":42},"/fr-fr/integrations/","integrations",{"title":231,"items":232},"Découvrir",[233,238,243],{"text":234,"config":235},"Témoignages clients",{"href":236,"dataGaName":237,"dataGaLocation":42},"/fr-fr/customers/","customer success stories",{"text":239,"config":240},"Blog",{"href":241,"dataGaName":242,"dataGaLocation":42},"/fr-fr/blog/","blog",{"text":244,"config":245},"Travail à distance",{"href":246,"dataGaName":247,"dataGaLocation":42},"https://handbook.gitlab.com/handbook/company/culture/all-remote/","remote",{"title":249,"items":250},"Connecter",[251,256,261,266,271],{"text":252,"config":253},"Services GitLab",{"href":254,"dataGaName":255,"dataGaLocation":42},"/fr-fr/services/","services",{"text":257,"config":258},"Communauté",{"href":259,"dataGaName":260,"dataGaLocation":42},"/community/","community",{"text":262,"config":263},"Forum",{"href":264,"dataGaName":265,"dataGaLocation":42},"https://forum.gitlab.com/","forum",{"text":267,"config":268},"Événements",{"href":269,"dataGaName":270,"dataGaLocation":42},"/events/","events",{"text":272,"config":273},"Partenaires",{"href":274,"dataGaName":275,"dataGaLocation":42},"/fr-fr/partners/","partners",{"backgroundColor":277,"textColor":278,"text":279,"image":280,"link":284},"#2f2a6b","#fff","L'avenir du développement logiciel. Tendances et perspectives.",{"altText":281,"config":282},"carte promo The Source",{"src":283},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758208064/dzl0dbift9xdizyelkk4.svg",{"text":285,"config":286},"Lire les articles les plus récents",{"href":287,"dataGaName":288,"dataGaLocation":42},"/fr-fr/the-source/","the source",{"text":290,"config":291,"lists":293},"Société",{"dataNavLevelOne":292},"company",[294],{"items":295},[296,301,307,309,314,319,324,329,334,339,344],{"text":297,"config":298},"À propos",{"href":299,"dataGaName":300,"dataGaLocation":42},"/fr-fr/company/","about",{"text":302,"config":303,"footerGa":306},"Carrières",{"href":304,"dataGaName":305,"dataGaLocation":42},"/jobs/","jobs",{"dataGaName":305},{"text":267,"config":308},{"href":269,"dataGaName":270,"dataGaLocation":42},{"text":310,"config":311},"Leadership",{"href":312,"dataGaName":313,"dataGaLocation":42},"/company/team/e-group/","leadership",{"text":315,"config":316},"Équipe",{"href":317,"dataGaName":318,"dataGaLocation":42},"/company/team/","team",{"text":320,"config":321},"Manuel",{"href":322,"dataGaName":323,"dataGaLocation":42},"https://handbook.gitlab.com/","handbook",{"text":325,"config":326},"Relations avec les investisseurs",{"href":327,"dataGaName":328,"dataGaLocation":42},"https://ir.gitlab.com/","investor relations",{"text":330,"config":331},"Centre de confiance",{"href":332,"dataGaName":333,"dataGaLocation":42},"/fr-fr/security/","trust center",{"text":335,"config":336},"Centre pour la transparence de l'IA",{"href":337,"dataGaName":338,"dataGaLocation":42},"/fr-fr/ai-transparency-center/","ai transparency center",{"text":340,"config":341},"Newsletter",{"href":342,"dataGaName":343,"dataGaLocation":42},"/company/contact/#contact-forms","newsletter",{"text":345,"config":346},"Presse",{"href":347,"dataGaName":348,"dataGaLocation":42},"/press/","press",{"text":350,"config":351,"lists":352},"Nous contacter",{"dataNavLevelOne":292},[353],{"items":354},[355,358,363],{"text":49,"config":356},{"href":51,"dataGaName":357,"dataGaLocation":42},"talk to sales",{"text":359,"config":360},"Portail d’assistance",{"href":361,"dataGaName":362,"dataGaLocation":42},"https://support.gitlab.com","support portal",{"text":364,"config":365},"Portail clients GitLab",{"href":366,"dataGaName":367,"dataGaLocation":42},"https://customers.gitlab.com/customers/sign_in/","customer portal",{"close":369,"login":370,"suggestions":377},"Fermer",{"text":371,"link":372},"Pour rechercher des dépôts et des projets, connectez-vous à",{"text":373,"config":374},"gitlab.com",{"href":56,"dataGaName":375,"dataGaLocation":376},"search login","search",{"text":378,"default":379},"Suggestions",[380,382,387,389,394,399],{"text":71,"config":381},{"href":76,"dataGaName":71,"dataGaLocation":376},{"text":383,"config":384},"Suggestions de code (IA)",{"href":385,"dataGaName":386,"dataGaLocation":376},"/fr-fr/solutions/code-suggestions/","Code Suggestions (AI)",{"text":105,"config":388},{"href":107,"dataGaName":105,"dataGaLocation":376},{"text":390,"config":391},"GitLab sur AWS",{"href":392,"dataGaName":393,"dataGaLocation":376},"/fr-fr/partners/technology-partners/aws/","GitLab on AWS",{"text":395,"config":396},"GitLab sur Google Cloud ",{"href":397,"dataGaName":398,"dataGaLocation":376},"/fr-fr/partners/technology-partners/google-cloud-platform/","GitLab on Google Cloud",{"text":400,"config":401},"Pourquoi utiliser GitLab ?",{"href":84,"dataGaName":402,"dataGaLocation":376},"Why GitLab?",{"freeTrial":404,"mobileIcon":409,"desktopIcon":414,"secondaryButton":417},{"text":405,"config":406},"Commencer votre essai gratuit",{"href":407,"dataGaName":47,"dataGaLocation":408},"https://gitlab.com/-/trials/new/","nav",{"altText":410,"config":411},"Icône GitLab",{"src":412,"dataGaName":413,"dataGaLocation":408},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203874/jypbw1jx72aexsoohd7x.svg","gitlab icon",{"altText":410,"config":415},{"src":416,"dataGaName":413,"dataGaLocation":408},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203875/gs4c8p8opsgvflgkswz9.svg",{"text":418,"config":419},"Commencer",{"href":420,"dataGaName":421,"dataGaLocation":408},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr/get-started/","get started",{"freeTrial":423,"mobileIcon":427,"desktopIcon":429},{"text":424,"config":425},"En savoir plus sur GitLab Duo",{"href":76,"dataGaName":426,"dataGaLocation":408},"gitlab duo",{"altText":410,"config":428},{"src":412,"dataGaName":413,"dataGaLocation":408},{"altText":410,"config":430},{"src":416,"dataGaName":413,"dataGaLocation":408},{"freeTrial":432,"mobileIcon":437,"desktopIcon":439},{"text":433,"config":434},"Retour aux tarifs",{"href":186,"dataGaName":435,"dataGaLocation":408,"icon":436},"back to pricing","GoBack",{"altText":410,"config":438},{"src":412,"dataGaName":413,"dataGaLocation":408},{"altText":410,"config":440},{"src":416,"dataGaName":413,"dataGaLocation":408},{"title":442,"button":443,"config":448},"Découvrez comment l'IA agentique transforme la livraison logicielle",{"text":444,"config":445},"Regarder GitLab Transcend maintenant",{"href":446,"dataGaName":447,"dataGaLocation":42},"/fr-fr/events/transcend/virtual/","transcend event",{"layout":449,"icon":450,"disabled":26},"release","AiStar",{"data":452},{"text":453,"source":454,"edit":460,"contribute":465,"config":470,"items":475,"minimal":652},"Git est une marque déposée de Software Freedom Conservancy et notre utilisation de « GitLab » est sous licence",{"text":455,"config":456},"Afficher le code source de la page",{"href":457,"dataGaName":458,"dataGaLocation":459},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/","page source","footer",{"text":461,"config":462},"Modifier cette page",{"href":463,"dataGaName":464,"dataGaLocation":459},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/content/","web ide",{"text":466,"config":467},"Veuillez contribuer",{"href":468,"dataGaName":469,"dataGaLocation":459},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/CONTRIBUTING.md/","please contribute",{"twitter":471,"facebook":472,"youtube":473,"linkedin":474},"https://twitter.com/gitlab","https://www.facebook.com/gitlab","https://www.youtube.com/channel/UCnMGQ8QHMAnVIsI3xJrihhg","https://www.linkedin.com/company/gitlab-com",[476,499,553,585,620],{"title":60,"links":477,"subMenu":482},[478],{"text":479,"config":480},"Plateforme DevSecOps",{"href":69,"dataGaName":481,"dataGaLocation":459},"devsecops platform",[483],{"title":184,"links":484},[485,489,494],{"text":486,"config":487},"Voir les forfaits",{"href":186,"dataGaName":488,"dataGaLocation":459},"view plans",{"text":490,"config":491},"Pourquoi choisir GitLab Premium ?",{"href":492,"dataGaName":493,"dataGaLocation":459},"/fr-fr/pricing/premium/","why premium",{"text":495,"config":496},"Pourquoi choisir GitLab Ultimate ?",{"href":497,"dataGaName":498,"dataGaLocation":459},"/fr-fr/pricing/ultimate/","why ultimate",{"title":500,"links":501},"Solutions",[502,507,510,512,517,522,526,529,532,537,539,541,543,548],{"text":503,"config":504},"Transformation digitale",{"href":505,"dataGaName":506,"dataGaLocation":459},"/fr-fr/topics/digital-transformation/","digital transformation",{"text":508,"config":509},"Sécurité et conformité",{"href":125,"dataGaName":132,"dataGaLocation":459},{"text":117,"config":511},{"href":101,"dataGaName":102,"dataGaLocation":459},{"text":513,"config":514},"Développement agile",{"href":515,"dataGaName":516,"dataGaLocation":459},"/fr-fr/solutions/agile-delivery/","agile delivery",{"text":518,"config":519},"Transformation cloud",{"href":520,"dataGaName":521,"dataGaLocation":459},"/fr-fr/topics/cloud-native/","cloud transformation",{"text":523,"config":524},"SCM",{"href":114,"dataGaName":525,"dataGaLocation":459},"source code management",{"text":105,"config":527},{"href":107,"dataGaName":528,"dataGaLocation":459},"continuous integration & delivery",{"text":156,"config":530},{"href":158,"dataGaName":531,"dataGaLocation":459},"value stream management",{"text":533,"config":534},"GitOps",{"href":535,"dataGaName":536,"dataGaLocation":459},"/fr-fr/solutions/gitops/","gitops",{"text":169,"config":538},{"href":171,"dataGaName":172,"dataGaLocation":459},{"text":174,"config":540},{"href":176,"dataGaName":177,"dataGaLocation":459},{"text":179,"config":542},{"href":181,"dataGaName":182,"dataGaLocation":459},{"text":544,"config":545},"Formation",{"href":546,"dataGaName":547,"dataGaLocation":459},"/fr-fr/solutions/education/","education",{"text":549,"config":550},"Services financiers",{"href":551,"dataGaName":552,"dataGaLocation":459},"/fr-fr/solutions/finance/","financial services",{"title":189,"links":554},[555,557,560,562,565,567,570,573,575,577,579,581,583],{"text":201,"config":556},{"href":203,"dataGaName":204,"dataGaLocation":459},{"text":558,"config":559},"Guides de démarrage rapide",{"href":208,"dataGaName":209,"dataGaLocation":459},{"text":211,"config":561},{"href":213,"dataGaName":214,"dataGaLocation":459},{"text":216,"config":563},{"href":218,"dataGaName":564,"dataGaLocation":459},"docs",{"text":239,"config":566},{"href":241,"dataGaName":242},{"text":568,"config":569},"Histoires de réussite client",{"href":236,"dataGaLocation":459},{"text":571,"config":572},"Histoires de succès client",{"href":236,"dataGaName":237,"dataGaLocation":459},{"text":244,"config":574},{"href":246,"dataGaName":247,"dataGaLocation":459},{"text":252,"config":576},{"href":254,"dataGaName":255,"dataGaLocation":459},{"text":257,"config":578},{"href":259,"dataGaName":260,"dataGaLocation":459},{"text":262,"config":580},{"href":264,"dataGaName":265,"dataGaLocation":459},{"text":267,"config":582},{"href":269,"dataGaName":270,"dataGaLocation":459},{"text":272,"config":584},{"href":274,"dataGaName":275,"dataGaLocation":459},{"title":290,"links":586},[587,589,592,594,596,598,600,604,609,611,613,615],{"text":297,"config":588},{"href":299,"dataGaName":292,"dataGaLocation":459},{"text":590,"config":591},"Emplois",{"href":304,"dataGaName":305,"dataGaLocation":459},{"text":310,"config":593},{"href":312,"dataGaName":313,"dataGaLocation":459},{"text":315,"config":595},{"href":317,"dataGaName":318,"dataGaLocation":459},{"text":320,"config":597},{"href":322,"dataGaName":323,"dataGaLocation":459},{"text":325,"config":599},{"href":327,"dataGaName":328,"dataGaLocation":459},{"text":601,"config":602},"Sustainability",{"href":603,"dataGaName":601,"dataGaLocation":459},"/sustainability/",{"text":605,"config":606},"Diversité, inclusion et appartenance (DIB)",{"href":607,"dataGaName":608,"dataGaLocation":459},"/fr-fr/diversity-inclusion-belonging/","Diversity, inclusion and belonging",{"text":330,"config":610},{"href":332,"dataGaName":333,"dataGaLocation":459},{"text":340,"config":612},{"href":342,"dataGaName":343,"dataGaLocation":459},{"text":345,"config":614},{"href":347,"dataGaName":348,"dataGaLocation":459},{"text":616,"config":617},"Déclaration de transparence sur l'esclavage moderne",{"href":618,"dataGaName":619,"dataGaLocation":459},"https://handbook.gitlab.com/handbook/legal/modern-slavery-act-transparency-statement/","modern slavery transparency statement",{"title":350,"links":621},[622,625,630,632,637,642,647],{"text":623,"config":624},"Échanger avec un expert",{"href":51,"dataGaName":52,"dataGaLocation":459},{"text":626,"config":627},"Aide",{"href":628,"dataGaName":629,"dataGaLocation":459},"https://support.gitlab.com/hc/en-us/articles/11626483177756-GitLab-Support","get help",{"text":364,"config":631},{"href":366,"dataGaName":367,"dataGaLocation":459},{"text":633,"config":634},"Statut",{"href":635,"dataGaName":636,"dataGaLocation":459},"https://status.gitlab.com/","status",{"text":638,"config":639},"Conditions d'utilisation",{"href":640,"dataGaName":641},"/terms/","terms of use",{"text":643,"config":644},"Déclaration de confidentialité",{"href":645,"dataGaName":646,"dataGaLocation":459},"/fr-fr/privacy/","privacy statement",{"text":648,"config":649},"Préférences en matière de cookies",{"dataGaName":650,"dataGaLocation":459,"id":651,"isOneTrustButton":26},"cookie preferences","ot-sdk-btn",{"items":653},[654,656,659],{"text":638,"config":655},{"href":640,"dataGaName":641,"dataGaLocation":459},{"text":657,"config":658},"Politique de confidentialité",{"href":645,"dataGaName":646,"dataGaLocation":459},{"text":648,"config":660},{"dataGaName":650,"dataGaLocation":459,"id":651,"isOneTrustButton":26},[662],{"id":663,"title":664,"body":8,"config":665,"content":667,"description":8,"extension":24,"meta":671,"navigation":26,"path":672,"seo":673,"stem":674,"__hash__":675},"blogAuthors/en-us/blog/authors/gitlab-france-team.yml","Gitlab France Team",{"template":666},"BlogAuthor",{"name":18,"config":668},{"headshot":669,"ctfId":670},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749659488/Blog/Author%20Headshots/gitlab-logo-extra-whitespace.png","1gfblqN0ibYIuWGk7MOTny",{},"/en-us/blog/authors/gitlab-france-team",{},"en-us/blog/authors/gitlab-france-team","Eni-wcJbgxSvctiz4Yjf4UeRk6T6IWt1wK0KuHU907U",[677,693,706],{"content":678,"config":691},{"title":679,"description":680,"authors":681,"body":684,"heroImage":685,"date":686,"category":9,"tags":687},"GitLab et Vertex AI sur Google Cloud : vers un développement logiciel agentique","Découvrez comment les clients Google Cloud adoptent GitLab et Vertex AI pour les modèles de base, les contrôles d'entreprise et la richesse de Model Garden.\n",[682,683],"Regnard Raquedan","Rajesh Agadi","GitLab Duo Agent Platform redéfinit la façon dont les organisations conçoivent, sécurisent et livrent leurs logiciels. Depuis sa disponibilité générale en janvier 2026, la plateforme intègre l'IA agentique à chaque phase du cycle de développement logiciel. GitLab Duo Agent Platform constitue une couche d'orchestration intelligente au sein de laquelle les équipes de développement et leurs agents spécialisés planifient, codent, révisent et corrigent ensemble les vulnérabilités de sécurité.\n\nGrâce à ce partenariat, [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) automatise l'orchestration du développement logiciel et la gestion du contexte du cycle de vie via son intégration à Vertex AI sur Google Cloud, qui alimente la couche de modèles pour les appels d'agents. Les équipes continuent de travailler sur les tickets, les merge requests, les pipelines et les workflows de sécurité, tandis que l'inférence suit la posture Google Cloud qu'elles ont déjà définie.\n\nLes avancées des modèles Vertex AI de Google Cloud élargissent les possibilités d'utilisation de GitLab Duo Agent Platform pour les clients Google Cloud. Ces derniers bénéficient d'un plan de contrôle [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/ \"Qu'est-ce que le DevSecOps ?\") alimenté par l'IA dans GitLab, soutenu par une infrastructure d'IA en constante évolution dans Vertex AI, ainsi que par les options de déploiement et d'intégration flexibles de GitLab Duo Agent Platform. Cette combinaison permet des workflows agentiques plus performants et mieux gouvernés à l'échelle de l'entreprise.\n\n![Illustration conceptuelle de GitLab Duo Agent Platform intégré à Vertex AI de Google Cloud pour alimenter le développement logiciel agentique et les workflows d'IA gouvernés](https://res.cloudinary.com/about-gitlab-com/image/upload/v1776165990/b7jlux9kydafncwy8spc.png)\n\n## Des agents qui interviennent tout au long du cycle de vie\n\nDe nombreux outils d'IA se concentrent sur une seule tâche : accélérer la [génération de code](https://about.gitlab.com/fr-fr/topics/devops/ai-code-generation-guide/ \"Génération de code\"). GitLab Duo Agent Platform va plus loin. La plateforme orchestre des agents d'IA sur l'ensemble du cycle de vie du développement logiciel (SDLC), de la planification à la livraison en passant par les contrôles de sécurité, et ce pour de nombreuses équipes travaillant sur de multiples projets et releases. À cette échelle, les assistants d'IA pour le code sont indispensables à l'innovation continue, mais ne suffisent pas à eux seuls.\n\nLes assistants de codage à usage unique ont rarement une vision complète de l'état d'un projet. Le backlog, les merge requests en attente, les jobs en échec et les résultats de sécurité sont disponibles dans GitLab, mais une fenêtre de chat distincte dans un assistant de codage n'hérite pas de cette vue d'ensemble du [SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\"). Ce manque se traduit par des transferts manuels, des explications répétées à une IA dépourvue de contexte, et des équipes de gouvernance qui tentent de cartographier les flux de données entre des outils qui n'ont jamais été conçus comme un système unifié.\n\nGitLab Duo Agent Platform contribue à combler ce fossé en exécutant des agents et des flows sur les mêmes objets que ceux utilisés quotidiennement par les équipes d'ingénierie. Vertex AI fournit ensuite les modèles et services que ces agents sollicitent lorsque Google Cloud est votre environnement d'inférence de référence, la passerelle d'IA (AI-Gateway) de GitLab gérant les accès afin que les administrateurs disposent d'une cartographie claire des connexions. Par exemple, l'agent Planner analyse les backlogs, décompose les epics en tâches structurées et applique des frameworks de priorisation pour aider les équipes à décider de ce qu'elles doivent développer ensuite. L'agent Security Analyst trie les vulnérabilités, détaille les risques en langage clair et recommande des mesures correctives par ordre de priorité. Des flows intégrés connectent ces agents au sein de processus de bout en bout, sans que les équipes de développement aient à gérer chaque transfert manuellement.\n\nAgentic Chat dans GitLab Duo Agent Platform offre une expérience unifiée pour les équipes de développement. Elles formulent des requêtes en langage naturel pour obtenir des réponses contextuelles basées sur un raisonnement multi-étapes qui s'appuie sur l'état complet d'un projet : ses tickets, ses merge requests, ses pipelines, ses résultats de sécurité et son code source. GitLab servant de système d'enregistrement pour le SDLC avec un modèle de données unifié, les agents GitLab Duo opèrent dans un contexte de cycle de vie qui échappe aux assistants d'IA autonomes et spécifiques à un outil.\n\n### Amplifiés par Vertex AI\n\nGitLab Duo Agent Platform est conçue pour offrir une flexibilité en matière de modèles, car elle attribue différentes capacités à différents modèles en fonction de ceux qui offrent les meilleures performances pour une tâche donnée. Ce choix architectural porte ses fruits sur Google Cloud, où Vertex AI joue le rôle d'environnement géré pour les modèles de base et les services associés, et offre un vaste écosystème de modèles et une infrastructure gérée qui contribuent à repousser encore plus loin les capacités de la plateforme.\n\nLes dernières générations de modèles d'IA disponibles via Vertex AI apportent des améliorations significatives en matière de raisonnement, d'utilisation des outils et de compréhension des contextes longs par rapport aux versions précédentes. Des propriétés sur lesquelles s'appuient les agents de GitLab sur de nombreux projets et équipes qui disposent de codes sources volumineux et complexes. Des fenêtres de contexte plus longues et une intégration plus riche des outils dans les modèles sous-jacents élargissent ce que les agents peuvent accomplir en une seule action, ce qui est particulièrement important pour des charges de travail telles que l'analyse approfondie du backlog ou le contrôle de sécurité d'un monorepo.\n\n[Vertex AI Model Garden](https://cloud.google.com/model-garden), avec son accès à un large éventail de modèles de base, offre aux clients la flexibilité nécessaire pour effectuer ces choix en fonction des performances, des coûts et des exigences réglementaires, sans la contrainte d'un fournisseur unique.\n\nPar ailleurs, les clients de GitLab peuvent utiliser la fonctionnalité Bring Your Own Model (BYOM) pour GitLab Duo Agent Platform, afin que les fournisseurs et les passerelles approuvés s'intègrent là où votre modèle de sécurité l'exige. L'article [consacré à GitLab Duo Agent Platform Self-Hosted et BYOM](https://about.gitlab.com/fr-fr/blog/agentic-ai-enterprise-control-self-hosted-duo-agent-platform-and-byom/) décrit le fonctionnement de cette configuration. Grâce à cette option de déploiement, les clients accèdent à un plus large éventail d'options de modèles qu'ils peuvent adapter à leur processus de développement logiciel : le bon modèle pour le bon workflow, avec les bonnes mesures de protection.\n\nPour GitLab, la décision de s'appuyer sur Vertex AI a été motivée par le besoin d'une fiabilité de niveau entreprise et d'une gamme de modèles inégalée. Vertex AI et Model Garden prennent entièrement en charge les aspects les plus complexes de l'hébergement des [grands modèles de langage (LLM)](https://about.gitlab.com/fr-fr/blog/large-language-model/ \"Qu'est-ce qu'un LLM ?\"), ce qui signifie que la livraison rapide de versions, la robustesse de la sécurité et la rigueur de la gouvernance sont intégrées de façon transparente dans l'intégration. Au-delà de l'offre de modèles Gemini, Vertex AI offre un accès mondial à faible latence à un vaste catalogue de modèles tiers et [open source](https://about.gitlab.com/fr-fr/blog/what-is-open-source/ \"Qu'est-ce que l'open source ?\").\n\nCombiné à l'approche de pointe de Google Cloud en matière de confidentialité des données et de protection des modèles, Vertex AI s'est imposé comme le choix évident pour alimenter l'[expérience développeur](https://about.gitlab.com/fr-fr/topics/devops/what-is-developer-experience/ \"Expérience développeur\") nouvelle génération de GitLab.\n\nEn intégrant Vertex AI Model Garden à son backend, GitLab renforce considérablement sa plateforme [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/ \"Qu'est-ce que le DevSecOps ?\") sans en répercuter la complexité sur les utilisateurs. Les équipes de développement n'ont pas à évaluer ni à gérer les LLM sous-jacents ; elles bénéficient au contraire d'un workflow simplifié et assisté par l'IA pour construire leurs applications.\n\nGitLab gère entièrement l'orchestration cloud et permet aux équipes de développement de se concentrer pleinement sur l'écriture d'un code de qualité, tandis que Vertex AI alimente les fonctionnalités qui les accompagnent.\n\n## Ce que cela signifie pour les clients Google Cloud\n\nGitLab Duo Agent Platform fournit déjà des agents d'IA qui opèrent sur l'ensemble du cycle de vie logiciel au sein d'un système d'enregistrement unique et gouverné. Sur Google Cloud, la plateforme favorise une innovation rapide à mesure que Vertex AI continue de faire évoluer les couches de modèles et d'infrastructure.\n\nPour les clients Google Cloud, cette intégration se traduit par une livraison logicielle rationalisée avec une gouvernance d'entreprise stricte. Pour les équipes d'ingénierie de plateforme, cela signifie normaliser les modèles Vertex qui alimentent les suggestions, les analyses et les corrections dans GitLab, plutôt que de répertorier des dizaines d'outils côté client. Les programmes de sécurité en bénéficient lorsque les agents proposent et valident des correctifs au même endroit où les équipes trient déjà les résultats, ce qui réduit les changements de contexte et les tâches qui s'échapperaient autrement vers des canaux non gérés.\n\nDu point de vue de l'économie et des politiques cloud, orienter l'inférence des agents vers Vertex depuis GitLab maintient l'utilisation à proximité des accords et contrôles déjà en place sur Google Cloud, ce qui contribue à éviter les dépenses redondantes et les chemins parallèles qui contournent les processus d'approvisionnement.\n\nVertex AI étant un fournisseur d'infrastructure sous-jacente de GitLab Duo Agent Platform, les organisations peuvent considérablement accroître la productivité de leurs équipes de développement sans les contraintes et les risques liés à la gestion de chaînes d'outils d'IA fragmentées. Les équipes restent alignées au sein d'un système d'enregistrement unique et sécurisé, ce qui leur permet de construire des applications plus rapidement et de livrer en toute confiance.\n\nLa collaboration entre GitLab et Google Cloud se construit depuis 2018. Aujourd'hui, elle représente l'une des collaborations les plus complètes pour les organisations qui souhaitent passer d'expérimentations en matière d'IA à un développement logiciel agentique entièrement gouverné sur Google Cloud. À mesure que les deux plateformes continuent d'évoluer, GitLab en élargissant son orchestration d'agents et son contexte développeur, et Vertex AI en repoussant les limites des capacités des modèles et de l'infrastructure des agents, la valeur ajoutée pour les clients communs ne cessera de croître.\n\n> [Commencez un essai gratuit de GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/free-trial/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) pour découvrir la puissance de GitLab et Vertex AI sur Google Cloud.","https://res.cloudinary.com/about-gitlab-com/image/upload/v1749663121/Blog/Hero%20Images/LogoLockupPlusLight.png","2026-04-15",[22,275,688,689,690],"google","news","product",{"featured":26,"template":12,"slug":692},"gitlab-and-vertex-ai-on-google-cloud",{"content":694,"config":704},{"title":695,"description":696,"authors":697,"heroImage":699,"date":700,"body":701,"category":9,"tags":702},"Accélérez votre développement avec GitLab Duo Agent Platform et Claude","Découvrez comment tirer parti des modèles d'IA externes comme Claude d'Anthropic pour automatiser la génération de code et la création de pipelines directement dans GitLab.",[698],"Cesar Saavedra","https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058602/epl3sinfezlzxnppxak6.png","2026-04-09","Les équipes de développement logiciel modernes sont confrontées à un défi majeur : comment maintenir la cadence de développement tout en garantissant la qualité du code, la sécurité et la cohérence dans le cadre de projets complexes ?\n\nBien que les assistants IA pour le code aient accéléré la productivité individuelle des équipes, ils fonctionnent souvent en marge du workflow de développement global. Ce manque d'intégration oblige les développeurs à basculer constamment entre différents outils, à traduire manuellement les suggestions de l'IA en code exploitable et à consacrer un temps précieux à des tâches répétitives qui pourraient être automatisées.\n\n[GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) résout ce problème en offrant une intégration transparente avec des modèles d'IA externes comme Claude d'Anthropic, Codex d'OpenAI et bien d'autres encore.\n\nEn créant des agents externes au sein de GitLab Duo Agent Platform, les organisations peuvent personnaliser les capacités de l'IA selon leurs besoins, workflows et normes spécifiques, directement dans l'environnement GitLab qu'elles connaissent. Les agents comprennent le contexte de votre projet, respectent vos normes de code et peuvent accomplir de manière autonome des tâches complexes en plusieurs étapes, de l'idée initiale au code prêt pour la production.\n\nRegardez cette démonstration vidéo et suivez les étapes ci-dessous pour vous lancer :\n\n\n\u003Cfigure class=\"video_container\">\n  \u003Ciframe src=\"https://www.youtube.com/embed/BPmoVCeyWJA?si=50ktjKxPUNpicXve\" frameborder=\"0\" allowfullscreen=\"true\"> \u003C/iframe>\n\u003C/figure>\n\n\n## Cas d'utilisation concrets\n\nVoici trois cas d'utilisation qui illustrent comment les agents externes transforment le cycle de vie du développement :\n\n### 1. De l'idée au code\n\nEn partant d'un projet vide et d'une description détaillée du ticket, l'agent externe (dans ce cas, Claude) prend en charge l'intégralité du développement de l'application. Le titre du ticket correspond à l'application souhaitée et la description énumère ses spécifications.\n\nL'agent lit le contexte (informations du projet, ressources associées, etc.), analyse les exigences détaillées dans le ticket, génère une application web Java full stack avec les composants d'interface utilisateur appropriés, implémente la logique métier avec les taux d'intérêt indiqués et crée une merge request comprenant l'ensemble du code prêt à être révisé.\n\nL'application générée inclut des classes Java backend, des fichiers HTML/CSS/JavaScript frontend et la configuration du build en fonction des spécifications du ticket d'origine. Les équipes peuvent ensuite tester l'application localement, vérifier les fonctionnalités et continuer à itérer avec l'agent par le biais d'une conversation en langage naturel.\n\n![Ticket détaillant les exigences de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/irzlmm0gukanjt7ryq9b.png \"Ticket détaillant les exigences de l'application\")\n\n\n\n![Prompt pour que l'agent externe crée une merge request avec implémentation de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/ajr6nquefob7lefdcxng.png \"Prompt pour que l'agent externe crée une merge request avec implémentation  de l'application\")\n\n\n\n\n![Implémentation terminée par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/gbwwawybg9u4jzibuurw.png \"Implémentation terminée par l'agent externe\")\n\n\n\n![Nouvelle application créée par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/rijlwchqo1zytp842bld.png \"Nouvelle application créée par l'agent externe\")\n\n\n\n![Build et exécution locale de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058386/aycpfxa0mdbfbxf2ydu3.png \"Build et exécution locale de l'application\")\n\n\n\n![Test local de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058388/rxlvwmzlx8vor92qhotl.png \"Test local de l'application\")\n\n### 2. Revue de code\n\nL'assurance qualité ne se limite pas à la génération de code. Dans le deuxième cas d'utilisation, le même agent externe effectue une revue de code complète de l'application qu'il a créée. En mentionnant l'agent dans un commentaire de la merge request, les équipes reçoivent une analyse détaillée comprenant les points forts du code, les problèmes critiques, les préoccupations de priorité moyenne, les améliorations mineures, les évaluations de sécurité, les notes de test, les métriques du code et les recommandations accompagnées d'un statut d'approbation. Ce processus de revue automatisée garantit la cohérence et détecte les problèmes potentiels avant qu'ils n'atteignent la production. Il permet aussi de libérer les développeurs expérimentés pour qu'ils se concentrent sur les décisions architecturales plutôt que sur les inspections routinières du code.\n\n\n![Demande de revue de code à l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/ri7x5qkx9bfnidfn8gx1.png \"Demande de revue de code à l'agent externe\")\n\n\n\n![Résultats de la revue de code par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/trdamdekrnvkbnfz0twg.png \"Résultats de la revue de code par l'agent externe\")\n\n\n\n### 3. Création d'un pipeline pour construire une image de conteneur\n\nLe dernier cas d'utilisation se concentre sur une lacune courante : l'automatisation du déploiement. Lorsque la merge request ne dispose pas de [pipeline CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\"), les équipes peuvent simplement demander à l'agent externe d'en créer un. L'agent génère une configuration de pipeline complète qui construit l'application, crée un Dockerfile au moyen d'images de base adaptées à la version Java du projet, construit une image [Docker](https://about.gitlab.com/fr-fr/blog/what-is-docker-comprehensive-guide/ \"Qu'est-ce que Docker ?\") et la déploie dans le registre de conteneurs intégré de GitLab. Le pipeline s'exécute automatiquement et suit les étapes de build, de création d'image Docker et de déploiement dans le registre sans configuration ni intervention manuelle.\n\n\n![Prompt pour que l'agent externe crée un pipeline et une image de conteneur](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/bwqipksewm1hejuycwqh.png \"Prompt pour que l'agent externe crée un pipeline et une image de conteneur\")\n\n\n\n![Nouveau pipeline et fichiers Dockerfile créés par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/agyr8hhc1vax7aarsxoj.png \"Nouveau pipeline et fichiers Dockerfile créés par l'agent externe\")\n\n\n\n![Exécution réussie du pipeline venant d'être créé](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/cdm4mye5edkpemedpxts.png \"Exécution réussie du pipeline venant d'être créé\")\n\n\n\n![Image de conteneur créée suite à l'exécution du pipeline](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/bifx71xz9k7vedbo9xl3.png \"Image de conteneur créée suite à l'exécution du pipeline\")\n\n## Résumé\n\nAvec ses agents externes, GitLab Duo Agent Platform représente un changement fondamental dans la manière dont les organisations abordent le développement logiciel. En remédiant à l'isolation des outils d'IA et à la fragmentation des workflows, les agents externes offrent une automatisation intelligente directement dans les plateformes que les équipes utilisent déjà. Plutôt que de traiter l'IA comme un assistant de codage séparé, GitLab Duo Agent Platform intègre de manière transparente des modèles externes comme Claude dans votre workflow GitLab, pour que les agents puissent comprendre le contexte complet du projet, respecter les normes de l'organisation et gérer en toute autonomie des tâches complexes à chaque étape du [SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\").\n\nLa proposition de valeur est claire : les équipes de développement accélèrent les délais de livraison, maintiennent une qualité de code cohérente, réduisent le travail répétitif et libèrent les ingénieurs expérimentés afin qu'ils se concentrent sur l'innovation plutôt que sur les tâches routinières. De la génération de code prêt pour la production basée sur des descriptions de tickets à la réalisation de revues de code approfondies et à l'automatisation des pipelines de déploiement, les agents externes deviennent des collaborateurs de confiance qui comprennent les besoins et normes spécifiques de votre organisation.\n\nDécouvrez comment votre équipe peut livrer plus rapidement et maintenir une qualité de code supérieure sans changer de contexte tout au long du cycle de vie du développement logiciel. Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui. Ensuite, consultez notre article [« Démarrer avec GitLab Duo Agent Platform : le guide complet »](https://about.gitlab.com/fr-fr/blog/gitlab-duo-agent-platform-complete-getting-started-guide/).\n\n",[690,22,703],"features",{"featured":11,"template":12,"slug":705},"gitlab-duo-agent-platform-with-claude-accelerates-development",{"content":707,"config":719},{"date":708,"title":709,"description":710,"authors":711,"heroImage":714,"body":715,"category":9,"tags":716},"2026-04-01","Accélérer l'innovation dans la chaîne de développement logiciel avec GitLab Duo Agent Platform et AWS Bedrock","Enjeux actuels, vision de GitLab et cas d'usage concrets : découvrez comment une orchestration intelligente des agents d'IA peut transformer votre organisation.",[712,713],"Olivier Dupré","Charlotte Delbosc","https://res.cloudinary.com/about-gitlab-com/image/upload/f_auto,q_auto,c_lfill/v1751464636/htrk5th3q0tq1rcfntkp.png","Accélérer le développement logiciel grâce à l'intelligence artificielle, c'est la promesse que beaucoup d'entreprises cherchent à tenir. Mais entre la multiplication des outils, la multiplication des modèles et la pression croissante en matière de [sécurité et de conformité](https://about.gitlab.com/fr-fr/blog/meet-regulatory-standards-with-gitlab/ \"Sécurité et conformité\"), la réalité est souvent plus complexe qu'un simple gain de productivité sur l'écriture de code.\n\nComment passer d'une IA expérimentale et fragmentée à une IA véritablement industrialisée, gouvernée et intégrée à l'ensemble du cycle de développement logiciel ? C'est la question centrale à laquelle GitLab répond avec GitLab Duo Agent Platform, en offrant à ses clients toute la flexibilité dont ils ont besoin en termes d’hébergement des modèles, pour répondre à leurs contraintes opérationnelles.\n\nDécouvrez dans cet article comment l'orchestration intelligente des agents d'IA peut transformer l’ensemble du cycle de développement logiciel, à travers deux cas d’usage concrets avec AWS Bedrock comme backend LLM.\n\n> 🎯 Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui !\n\n## L'IA en entreprise : de l'expérimentation à la gouvernance à grande échelle\n\nEn 2025, **près de 88 % des organisations utilisaient déjà l'IA dans au moins une fonction métier**, selon une enquête de McKinsey. Un chiffre qui illustre un basculement majeur : l'IA n'est plus un sujet d'expérimentation isolée. Elle est devenue un enjeu de production, de gouvernance et de gestion des risques à l'échelle de l'entreprise.\n\n![Enquête de McKinsey 2025](https://res.cloudinary.com/about-gitlab-com/image/upload/v1774026444/orfmpn658y49717y3n8f.png)\n\nSur les deux dernières années, l'utilisation de l'IA générative s’est intensifiée, entraînant dans son sillage une multiplication d'outils, de modèles et de preuves de concept. Une complexité croissante qui soulève une question de fond : qui utilise quel modèle, avec quelles données, et sous quel niveau de sécurité et de conformité ? Face à ce manque de visibilité, les entreprises réclament désormais davantage de traçabilité, de contrôle et de gouvernance sur leur utilisation de l’IA. \n\n## Le paradoxe de l'IA dans le développement logiciel\n\nDans la chaîne de développement logiciel, un paradoxe s'est installé : l'IA a certes accéléré la phase de codage, mais toutes les autres étapes du cycle de développement logiciel restent des goulots d'étranglement. Spécifications, revues de code, tests, sécurité, déploiements, surveillance… autant d'étapes qui n'ont pas encore pleinement profité des avantages de l’intelligence artificielle.\n\nC’est dans ce contexte que s'inscrit la stratégie de GitLab : passer d’une approche fragmentée de l’IA à une plateforme unifiée où le code, la sécurité et la conformité ainsi que l’IA coexistent au même endroit. \n\n## GitLab : de l’approche DevSecOps  à l’orchestration intelligente\n\nGitLab a transformé sa plateforme, d’une simple plateforme [CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/ \"Qu'est-ce que le CI/CD ?\") pour gérer étape par étape le cycle de vie logiciel à une **plateforme d'orchestration intelligente** qui unifie à la fois le DevSecOps et l'IA.\n\nL'objectif n'est plus seulement d'automatiser chaque étape individuellement, mais de **permettre aux équipes d'orchestrer leurs agents d’IA** pour livrer des logiciels plus vite, de manière plus sécurisée, et avec une gouvernance renforcée depuis une plateforme unique.\n\n### Une intégration adaptée à vos besoins\n\nL'approche de GitLab s’adapte à vos contraintes existantes : \n\n* **Intégration à vos workflows existants** : projets, pipelines, outils.\n* **Exploitation de votre contexte métier** : les agents GitLab s'appuient sur votre code et votre contexte pour être immédiatement opérationnels sur vos applications.\n* **Respect de vos règles de sécurité et de conformité** : politiques d'accès, localisation des données.\n* **Maîtrise totale de votre infrastructure** : avec des modèles auto-gérés ou hébergés sur AWS, vous avez la possibilité d'utiliser les modèles de votre choix, tout en conservant vos données et votre contrôle. Et si vos contraintes l'exigent, vous pouvez également basculer sur AWS European Sovereign Cloud, voire fonctionner en environnement totalement isolé d'Internet.\n\nPour illustrer concrètement ces capacités, intéressons-nous aux deux cas d'usage suivants.\n\n## GitLab Duo Agent Platform et AWS Bedrock en pratique\n\nLes deux cas d'usage présentés ci-dessous s'appuient sur une instance GitLab déployée sur AWS, avec AWS Bedrock comme backend LLM. Les modèles ont été préalablement configurés dans GitLab pour alimenter les différentes fonctionnalités de GitLab Duo Agent Platform : suggestion de code, GitLab Duo Agentic Chat, explication de code, etc. \n\n### Cas d'usage 1 : utilisation de l’agent Security Analyst\n\nLes scans SAST et SCA sont essentiels, mais ils génèrent souvent un volume important de vulnérabilités, difficiles à classer, prioriser et traiter efficacement. C'est là qu'intervient l'agent Security Analyst de GitLab. Cet agent d’IA spécialisé joue le rôle d'un analyste sécurité augmenté : \n\n* Il se connecte aux résultats des scans de sécurité.\n* Il analyse les vulnérabilités et estime leurs niveaux de risque.\n* Il priorise les éléments critiques et propose des plans de remédiation.\n\nLes bénéfices sont mesurables : moins de bruit pour les développeurs, un gain de temps pour les équipes AppSec, et une réduction observable du volume de vulnérabilités en production.\n\nLa sécurité n'est pas le seul domaine où les agents d’IA font la différence. Le cas d'usage suivant montre comment cette même logique d'orchestration peut transformer le quotidien des équipes de développement avec l’aide de plusieurs agents spécialisés. \n\n### Cas d'usage 2 : de la user story à la merge request avec des agents d’IA\n\nTransformer une user story en code fonctionnel, accompagné de tests et d’une documentation, est un processus long et variable d'un développeur à l'autre. \n\nPour faciliter le travail des équipes, GitLab propose un **flow “Développeur” qui orchestre simultanément plusieurs agents d’IA** à partir d’un simple ticket :\n\n1. Un agent propose le **plan de développement** et **génère le code**.\n2. Un agent **effectue les tests**.\n3. Un agent **rédige et met à jour la documentation**.\n\nCe flow de bout en bout permet de gagner un temps précieux entre l’idée et le développement, tout en standardisant les pratiques et en garantissant la conformité avec les contraintes de l'entreprise.\n\n## L'IA comme levier industriel\n\nL'enjeu n'est pas d'avoir plus d'IA, mais de faire en sorte que **les équipes et les agents d’IA collaborent ensemble à l'échelle de l'entreprise**. Avec GitLab et son approche d’orchestration intelligente, les équipes DevSecOps alignent leurs workflows, leurs règles de sécurité et leurs modèles pour faire de l’IA un véritable avantage compétitif. \n\n> 🎯 Prêt à accélérer votre développement logiciel ? Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui !\n\n### Ressources complémentaires\n\n* [GitLab Duo Agent Platform : le guide complet](https://about.gitlab.com/fr-fr/blog/gitlab-duo-agent-platform-complete-getting-started-guide/)\n* [Démarrer avec GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/blog/introduction-to-gitlab-duo-agent-platform/)\n* [Démarrer avec GitLab Duo Agentic Chat](https://about.gitlab.com/fr-fr/blog/getting-started-with-gitlab-duo-agentic-chat/)\n* [GitLab Duo Agent Platform : comprendre les agents](https://about.gitlab.com/fr-fr/blog/understanding-agents-foundational-custom-external/)\n* [Comprendre les flows : workflows multi-agents](https://about.gitlab.com/fr-fr/blog/understanding-flows-multi-agent-workflows/)\n* [Découvrir le catalogue d'IA : créer et partager des agents et des flows](https://about.gitlab.com/fr-fr/blog/ai-catalog-discover-and-share-agents/)\n* [Surveiller, gérer et automatiser les workflows d'IA](https://about.gitlab.com/fr-fr/blog/monitor-manage-automate-ai-workflows/) \n* [Intégrer le Model Context Protocol](https://about.gitlab.com/fr-fr/blog/duo-agent-platform-with-mcp/)\n* [Personnaliser GitLab Duo Agent Platform : règles, prompts et workflows](https://about.gitlab.com/fr-fr/blog/customizing-gitlab-duo-chat-rules-prompts-workflows/)",[717,22,718],"AWS","DevSecOps platform",{"featured":26,"template":12,"slug":720},"gitlab-duo-agent-platform-and-aws-bedrock",{"promotions":722},[723,736,748,760],{"id":724,"categories":725,"header":726,"text":727,"button":728,"image":733},"ai-modernization",[9],"Is AI achieving its promise at scale?","Quiz will take 5 minutes or less",{"text":729,"config":730},"Get your AI maturity score",{"href":731,"dataGaName":732,"dataGaLocation":242},"/assessments/ai-modernization-assessment/","modernization assessment",{"config":734},{"src":735},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/qix0m7kwnd8x2fh1zq49.png",{"id":737,"categories":738,"header":740,"text":727,"button":741,"image":745},"devops-modernization",[690,739],"devsecops","Are you just managing tools or shipping innovation?",{"text":742,"config":743},"Get your DevOps maturity score",{"href":744,"dataGaName":732,"dataGaLocation":242},"/assessments/devops-modernization-assessment/",{"config":746},{"src":747},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138785/eg818fmakweyuznttgid.png",{"id":749,"categories":750,"header":752,"text":727,"button":753,"image":757},"security-modernization",[751],"security","Are you trading speed for security?",{"text":754,"config":755},"Get your security maturity score",{"href":756,"dataGaName":732,"dataGaLocation":242},"/assessments/security-modernization-assessment/",{"config":758},{"src":759},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/p4pbqd9nnjejg5ds6mdk.png",{"id":761,"paths":762,"header":765,"text":766,"button":767,"image":772},"github-azure-migration",[763,764],"migration-from-azure-devops-to-gitlab","integrating-azure-devops-scm-and-gitlab","Is your team ready for GitHub's Azure move?","GitHub is already rebuilding around Azure. Find out what it means for you.",{"text":768,"config":769},"See how GitLab compares to GitHub",{"href":770,"dataGaName":771,"dataGaLocation":242},"/compare/gitlab-vs-github/github-azure-migration/","github azure migration",{"config":773},{"src":747},{"header":775,"blurb":776,"button":777,"secondaryButton":781},"Commencez à développer plus rapidement dès aujourd'hui","Découvrez ce que votre équipe peut accomplir avec la plateforme d'orchestration intelligente pour le DevSecOps.\n",{"text":44,"config":778},{"href":779,"dataGaName":47,"dataGaLocation":780},"https://gitlab.com/-/trial_registrations/new?glm_content=default-saas-trial&glm_source=about.gitlab.com/fr-fr/","feature",{"text":49,"config":782},{"href":51,"dataGaName":52,"dataGaLocation":780},1776449974221]