[{"data":1,"prerenderedAt":774},["ShallowReactive",2],{"/de-de/blog/what-is-mlops":3,"navigation-de-de":35,"banner-de-de":438,"footer-de-de":448,"blog-post-authors-de-de-GitLab Germany Team":653,"blog-related-posts-de-de-what-is-mlops":668,"blog-promotions-de-de":711,"next-steps-de-de":764},{"id":4,"title":5,"authorSlugs":6,"body":8,"categorySlug":9,"config":10,"content":14,"description":8,"extension":24,"isFeatured":11,"meta":25,"navigation":26,"path":27,"publishedDate":19,"seo":28,"stem":31,"tagSlugs":32,"__hash__":34},"blogPosts/de-de/blog/what-is-mlops.yml","What Is Mlops",[7],"gitlab-germany-team",null,"ai-ml",{"featured":11,"template":12,"slug":13},false,"BlogPost","what-is-mlops",{"title":15,"description":16,"authors":17,"date":19,"body":20,"tags":21,"category":9,"heroImage":23},"MLOps – systematisches ML-Lifecycle-Management mit GitLab","MLOps verbindet Data Science und Engineering, automatisiert ML-Workflows und garantiert Reproduzierbarkeit, Governance und KI-Verordnung-Compliance.",[18],"GitLab Germany Team","2025-11-19","**MLOps (Machine Learning Operations) umfasst alle Praktiken zum zuverlässigen, nachhaltigen Deployment, Monitoring und Maintenance von Machine-Learning-Modellen in Production.**\n\n\nEin Modell in Production zu bringen ist mehr als Training. Zwischen Datenaufbereitung, Deployment, Performance-Monitoring und Maintenance stoßen Teams auf Komplexität, die weit über reine Entwicklung hinausgeht. Resultat: verlängerte Timelines, explodierende Kosten, einbrechende Zuverlässigkeit.\n\n\n**Kurz gesagt: MLOps verhält sich zu Machine Learning wie [DevOps](https://about.gitlab.com/de-de/topics/devops/) zu Software-Entwicklung – ein strukturierter Ansatz, der Workflows automatisiert, Kollaboration zwischen Data-Science- und Engineering-Teams verbessert und Modell-Kontinuität in Production garantiert.**\n\n\nDurch Organisation des kompletten Modell-Lifecycles – von Konzeption bis kontinuierlicher Verbesserung – ermöglicht MLOps Organisationen, maximalen Wert aus KI-Projekten zu ziehen und diese langfristig zu etablieren.\n\n\n> **[→ GitLab Ultimate und GitLab Duo Enterprise kostenlos testen.](https://about.gitlab.com/de-de/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_de_blog_de)**\n\n\n## MLOps: Definition und Rolle\n\n\nDer Begriff **MLOps** kombiniert *Machine Learning und Operations*. Er bezeichnet alle Praktiken, Tools und Methoden zur Verwaltung des kompletten Machine-Learning-Modell-Lifecycles – von Konzeption bis Production-Betrieb.\n\n\nDie zentrale Idee: **Zwei oft getrennte Welten verbinden** – **Data Scientists**, die Modelle entwickeln und trainieren, und **Engineering-Teams**, die diese deployen, monitoren und maintainen müssen. Durch diese Verbindung garantiert MLOps Kontinuität zwischen Experimentierung und realer Nutzung.\n\n\nDie Rolle geht über reine Automatisierung hinaus. MLOps zielt darauf ab, Modell-Zuverlässigkeit über Zeit zu garantieren, Team-Kollaboration zu optimieren und Organisationen einen Rahmen zu geben für [industrielle, nachhaltige Machine-Learning-Nutzung](https://about.gitlab.com/de-de/the-source/ai/6-strategies-to-help-developers-accelerate-ai-adoption/).\n\n\n![MLOps-Konzept-Übersicht](https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517964/cwgub5rfekc0wzcms012.png)\n\n\n## Warum ist MLOps unverzichtbar geworden?\n\n\nMachine Learning hat sich weit über Forschung hinaus etabliert. Use Cases multiplizieren sich: Echtzeit-Betrugs-Detection, personalisierte Empfehlungen, Predictive Maintenance, generative Assistenten. Diese Modelle bleiben nicht im experimentellen Stadium – sie müssen in Production laufen, oft mit strikten Latenz-Anforderungen und unter starken Constraints.\n\n\nDoch Schwierigkeiten treten schnell auf. **Deployment-Zyklen verlängern sich**, Modelle degradieren sobald Daten evolvieren, und Ergebnisse werden schwer auditierbar. Ohne Optimierung explodieren Infrastruktur-Kosten. Diese Bremsen sind Teams inzwischen bekannt.\n\n\nMLOps bietet eine strukturierte Antwort auf diese Probleme. Es standardisiert **Deployment**, **Monitoring** und **Governance** von Modellen. Es ermöglicht auch Zukunftsvorbereitung: AutoML-Integration, generative Modell-Verwaltung, Compliance mit neuen Regelungen wie dem AI Act (Europäische KI-Verordnung).\n\n\n**Für deutsche Unternehmen wird MLOps durch die KI-Verordnung der EU (AI Act) zur strategischen Notwendigkeit.** Die Verordnung tritt vollständig im August 2026 in Kraft. Artikel 9 fordert Risiko-Management-Systeme für Hochrisiko-KI. Artikel 17 verlangt technische Dokumentation aller ML-Modelle inklusive Training-Daten, Architektur und Validation. MLOps-Praktiken – systematisches Versioning, Audit-Trails, reproduzierbare Pipelines – erfüllen diese Anforderungen direkt.\n\n\nFür viele Organisationen markiert MLOps-Adoption einen **Reife-Schritt**. Sie bedingt die Fähigkeit, Prototypen in dauerhafte Assets zu transformieren und KI in glaubwürdige Unternehmensstrategie einzubetten.\n\n\n## Welche Vorteile bietet MLOps?\n\n\nMLOps ist keine reine Methode – es ist ein Kultur-Wandel, der Machine Learning **schneller, zuverlässiger und skalierbarer** in jeder Phase des Software-Entwicklungs-Lifecycles macht.\n\n\n### 1. Endlich alignte Teams\n\n\nMLOps eliminiert Silos zwischen Data Scientists, Entwicklern und Ops-Engineers. Durch gemeinsame Pipelines und denselben Code visualisieren alle dieselben Metriken und sprechen dieselbe Sprache. Modelle gehen von R&D in Production ohne Brüche oder Informationsverlust.\n\n\n### 2. Friktionsfreier Production-Übergang\n\n\nDank CI/CD-Automatisierung laufen Training, Testing und Deployment ohne manuelle Intervention ab. Was Wochen dauerte, geschieht in Stunden – mit reproduzierbaren, kontrollierten Workflows über integrierte Plattformen wie GitLab.\n\n\n### 3. Nachvollziehbare, reproduzierbare Modelle\n\n\nJede Modell-Version, jedes Dataset und jeder Code wird archiviert. Bei Drift lässt sich ein Experiment wiederholen, die Ursache identifizieren oder eine stabile Version wiederherstellen. Diese Nachvollziehbarkeit transformiert Machine Learning in verifizierbaren, nachhaltigen Prozess.\n\n\n**Diese systematische Reproduzierbarkeit erfüllt zentrale Anforderungen der KI-Verordnung Artikel 17 (technische Dokumentation) und ermöglicht deutschen Unternehmen audit-fähige Nachweise für Compliance.**\n\n\n### 4. Kontinuierliche Production-Überwachung\n\n\nMLOps endet nicht beim Deployment. Performances werden kontinuierlich überwacht zur Drift-Erkennung. Tools wie Prometheus oder Grafana lassen sich in GitLab integrieren für Team-Alerting oder automatisches Retraining-Triggering.\n\n\n### 5. Governance by Design\n\n\nSecurity-, Compliance- und Audit-Anforderungen sind Teil der Pipeline. Automatische Dokumentation, Access-Control und Audit-Logs garantieren Transparenz und regulatorische Compliance ohne Zusatzaufwand.\n\n\n## MLOps-Prinzipien und Best Practices\n\n\nMLOps beschränkt sich nicht auf Konzepte. Es umfasst präzise Praktiken, die experimentelle Modelle in zuverlässige, nachhaltige Services transformieren. Diese Praktiken decken die gesamte Software-Chain ab: Development, Deployment, Monitoring und Governance.\n\n\n### Workflow-Automatisierung (CI/CD/CT)\n\n\nEin klassisches Machine-Learning-Projekt durchläuft mehrere repetitive Schritte:\n\n\n1. Datenaufbereitung\n\n2. Training\n\n3. Testing\n\n4. Packaging\n\n5. Deployment\n\n\nManuell durchgeführt sind diese langsam und fragil. Automatisierung transformiert diesen Pfad in kontinuierliche, vorhersagbare Chain.\n\n\nMit **[CI/CD-Pipelines](https://about.gitlab.com/de-de/topics/ci-cd/cicd-pipeline/)** triggert jede Code- oder Daten-Änderung automatisch notwendige Schritte: Training, Validation, Deployment. Modelle gehen schneller in Production, mit weniger Fehlern.\n\n\n**[GitLab CI/CD](https://about.gitlab.com/de-de/topics/ci-cd/)**, bereits breit in Software-Entwicklung adaptiert, bildet eine natürliche Basis zur Orchestrierung dieser MLOps-Pipelines.\n\n\n**CT (Continuous Training)** ergänzt CI/CD durch Automatisierung des Modell-Retrainings. Sobald Drift erkannt wird oder Performance-Schwellen überschritten werden, kann automatisch ein neuer Training-Zyklus getriggert werden. Diese Praxis hält Modelle aligned mit Daten-Evolution ohne manuelle Intervention.\n\n\n**Beispiel**: Diese minimalistische YAML-Datei illustriert eine typische ML-Pipeline, orchestriert über GitLab CI/CD:\n\n\n* Daten-Ingestion und -Aufbereitung,\n\n* Modell-Training und -Speicherung,\n\n* Testing und Evaluation,\n\n* Automatisiertes Production-Deployment.\n```yaml\n\nimage: python:3.9\n\n\nbefore_script:\n  - pip install --no-cache-dir -r requirements.txt\n\nstages:\n  - prepare\n  - train\n  - test\n  - deploy\n\nprepare_data:\n  stage: prepare\n  script:\n    - python scripts/prepare_data.py\n  artifacts:\n    paths:\n      - data/processed/\n    expire_in: 7 days\n\ntrain_model:\n  stage: train\n  script:\n    - python scripts/train.py --data data/processed/\n  artifacts:\n    paths:\n      - models/model.pkl\n    expire_in: 30 days\n\ntest_model:\n  stage: test\n  script:\n    - pytest tests/\n    - python scripts/evaluate.py models/model.pkl\n\ndeploy_model:\n  stage: deploy\n  script:\n    - bash scripts/deploy.sh models/model.pkl\n  when: on_success\n```\n\n\n### Versions-Management (Daten, Modelle, Code)\n\n\nOhne rigoroses Versions-Management ist es unmöglich zu wissen, auf welchen Daten ein Modell trainiert wurde oder zu einem früheren Zustand bei Drift zurückzukehren.\n\n\nMLOps generalisiert **systematisches Versioning**. Jedes Dataset, jedes Modell und jede Pipeline wird archiviert und mit entsprechendem Code verknüpft. GitLab bringt diese [Versions-Management-Logik](https://about.gitlab.com/de-de/topics/version-control/) nativ mit – basierend auf [Git](https://about.gitlab.com/de-de/blog/what-is-git-the-ultimate-guide-to-gits-role-and-functionality/). Erweitert auf ML-Workflows garantiert es End-to-End-Nachvollziehbarkeit.\n\n\nHinweis: Die [GitLab Model Registry](https://docs.gitlab.com/user/project/ml/model_registry/) ermöglicht ML-Modell-Versionierung und -Katalogisierung neben Quellcode und schafft eine einzige Wahrheitsquelle für das gesamte Projekt.\n\n\n### Validation und Daten-/Modell-Qualität\n\n\nEin in Test-Umgebung performantes Modell kann in Production scheitern. Um diese Diskrepanz zu vermeiden, führt MLOps Validationen auf mehreren Ebenen ein.\n\n\n* **Daten-Qualität**: Outlier-Detection, Konsistenz zwischen Training- und Validation-Sets, Vollständigkeits-Tracking.\n\n* **Modell-Robustheit**: Performance-Tests, Bias-Verifikation, Evaluation anhand repräsentativer Business-Szenarien.\n\n\nDiese in Pipelines integrierten Controls reduzieren das Risiko, fragile oder biased Modelle zu deployen.\n\n\n### Monitoring und Drift-Detection\n\n\nEin Modell ist niemals statisch. Daten evolvieren, Verhaltensweisen ändern sich, und Performance degradiert über Zeit.\n\n\nMLOps integriert **kontinuierliches Monitoring** technischer und Business-Metriken. Es detektiert statistische Drifts, generiert Alerts und kann automatisches Retraining triggern. Diese Loop verlängert Modell-Lebensdauer und erhält Alignment mit operativen Anforderungen.\n\n\n### Data Engineering\n\n\nViele Projekte scheitern nicht an Modellen, sondern an **instabilen oder schlecht strukturierten Daten**. Daher ist Data Engineering essenzielle MLOps-Komponente.\n\n\nEs basiert auf mehreren Praktiken: klare Daten-Contracts zwischen Produzenten und Nutzern definieren, Qualität und Verfügbarkeit von Daten-Flows kontinuierlich überwachen, und den richtigen Processing-Modus wählen – Batch für massive Volumen, Streaming für Realtime. Diese Fundamente garantieren, dass Modelle auf zuverlässigen, stabilen Daten basieren.\n\n\nEine Schlüsselkomponente ist der Feature Store, der von Modellen genutzte Features zentralisiert und versioniert. Er garantiert Konsistenz zwischen Training und Production, vermeidet Duplikation und beschleunigt Entwicklung neuer Modelle.\n\n\n### LLMOps für generative Modelle\n\n\nÜber traditionelle Modelle hinaus bringen generative Modelle neue Herausforderungen: evolvierende Prompts, hohe Inference-Kosten, komplexere Qualitäts-Evaluation.\n\n\n**LLMOps** überträgt MLOps-Prinzipien auf diesen Kontext. Es umfasst Prompt-Versions-Management, User-Feedback-Integration und detailliertes Execution-Cost-Tracking. In manchen Umgebungen kann eine einzelne Anwendung Inference-Kosten von mehreren tausend Euro pro Tag generieren – Kontrolle dieser Ausgaben wird strategischer Imperativ.\n\n\n## MLOps-Projekt-Lifecycle\n\n\nMLOps reduziert sich nicht auf Prinzipien. Es ist primär eine Organisationsweise für Machine-Learning-Projekt-Lifecycles – von Datenaufbereitung bis kontinuierlicher Production-Verbesserung. Jede Phase ist mit anderen verknüpft und gewinnt Effizienz durch strukturierten Ansatz.\n\n\n### Daten-Sammlung und -Aufbereitung\n\n\nDaten sind Ausgangspunkt jedes Machine-Learning-Projekts. Dennoch sind sie auch eine der Haupt-Schwierigkeitsquellen. Mehrere Studien zeigen, dass Datenaufbereitung 50-80% der Data-Scientists-Zeit beanspruchen kann – abhängig von Quellen-Qualität und verfügbarem Automatisierungsgrad.\n\n\nMLOps formalisiert diese Arbeit mit automatisierten Ingestion-Pipelines, Daten-Contracts zwischen Teams und systematischen Validationen (Vollständigkeit, Konsistenz, Anomalie-Detection). Diese Mechanismen reduzieren Fehler und sichern folgende Schritte ab.\n\n\nDiese solide Basis optimiert Training-Schritte mit bestmöglichen Bedingungen.\n\n\n### Modell-Training\n\n\nSobald Daten bereit sind, geht es nicht nur um gute Metriken, sondern auch um **Reproduzierbarkeit** der Ergebnisse.\n\n\nMLOps verstärkt diese Phase mit zwei Hebeln:\n\n\n* **Systematisches Versioning** von Daten, Code und Modellen;\n\n* **Experiment-Automatisierung** via Pipelines.\n\n\nJeder Versuch wird dokumentiert, jeder Parameter aufgezeichnet. Teams können Ergebnisse objektiv vergleichen und vielversprechendste Konfigurationen schnell identifizieren.\n\n\n### Production-Deployment\n\n\nEin in Development-Umgebung performantes Modell hat keinen Impact, solange es nicht genutzt wird. Production-Deployment ist daher Schlüsselschritt, aber oft der heikelste.\n\n\nMLOps vereinfacht diesen Übergang durch Automatisierung: standardisiertes Packaging, integrierte Tests, reproduzierbares Deployment. Wo Production-Deployment mehrere Wochen Koordination benötigte, lässt es sich nun in Tagen realisieren.\n\n\nAuch hier bietet **GitLab CI/CD** eine solide Basis zur Orchestrierung dieser Continuous-Deployments – mit Tools, die [DevOps-Teams](https://about.gitlab.com/de-de/topics/devops/build-a-devops-team/) bereits kennen.\n\n\n### Performance-Tracking und kontinuierliche Verbesserung\n\n\nSobald online, wird das Modell mit Live-Daten konfrontiert. Seine Performance evolviert, manchmal negativ.\n\n\nManche Teams gehen über reines Monitoring hinaus und implementieren **automatisiertes Retraining**, sobald Performance-Degradations-Schwellen erreicht werden. Diese kontinuierliche Verbesserungs-Loop garantiert, dass Modelle relevant bleiben und mit Business-Anforderungen aligned sind.\n\n\n## Rollen in MLOps-Projekten\n\n\nMLOps-Projekte basieren nicht auf einem einzelnen Team, sondern auf Komplementarität mehrerer Profile. Jedes spielt eine Schlüsselrolle bei Konzeption, Deployment und Modell-Maintenance.\n\n\n### Data Scientists\n\n\nData Scientists bleiben Modell-Architekten. Ihre Rolle: **Daten explorieren**, Algorithmen konzipieren und verschiedene Ansätze testen. Sie definieren auch Metriken für Performance-Evaluation.\n\n\nIn MLOps-Ansätzen evolviert ihre Mission. Notebooks werden reproduzierbar, Scripts integrieren sich in Pipelines, und Modelle werden versioniert. Dieser Rahmen-Wechsel verhindert, dass Arbeiten im Prototyp-Stadium steckenbleiben, und erleichtert Production-Übergang.\n\n\n### Data Engineers und DevOps-Teams\n\n\nModelle haben nur Wert, wenn sie genutzt werden können. Data Engineers und DevOps-Teams spielen zentrale Rollen bei der Transformation von Experimenten in robuste Lösungen.\n\n\n* **Data Engineers** bauen und maintainen Ingestion-Pipelines, garantieren Qualität und Verfügbarkeit von Daten-Flows und legen Fundamente für Daten-Governance.\n\n* **DevOps-Teams** orchestrieren Deployments, automatisieren Tests und überwachen Umgebungen. Sie wenden auf Machine Learning Praktiken an, die Software-Entwicklung bereits transformiert haben: CI/CD, Monitoring, Access-Management.\n\n\nMit Plattformen wie **GitLab** haben diese Teams bereits bewährte Tools zur MLOps-Workflow-Integration ohne Tool- und Plattform-Multiplikation.\n\n\n### Koordination mit Business-Teams\n\n\nEin Modell wird nicht nur an Predictions-Präzision gemessen. Es muss auch sichtbaren Impact für die Organisation generieren. Hier kommen Business-Teams ins Spiel.\n\n\nSie definieren **Erfolgs-Key-Indicators**, bringen Feld-Expertise ein und validieren Modell-Relevanz in konkreten Kontexten. In MLOps-Ansätzen wird diese Kollaboration permanent statt punktuell. Feedback speist Evaluation, beeinflusst Prioritäten und leitet Retraining-Entscheidungen.\n\n\nOhne diese Validierungs-Loop kann selbst ein technisch performantes Modell sein Ziel verfehlen und echten Wert nicht liefern.\n\n\n## Häufige Fehler vermeiden\n\n\nSelbst mit strukturiertem MLOps-Ansatz treten manche Fallstricke regelmäßig auf. Sie verlangsamen Projekte und kompromittieren Production-Wert.\n\n\n### Zu viele Tools ohne klaren Rahmen\n\n\nSpezialisierte Tools nutzen scheint eine gute Idee: eins für Ingestion, ein anderes für Training, ein drittes für Monitoring, etc. Aber während der Tech-Stack wächst, explodiert Komplexität. Kosten steigen und Sichtbarkeit sinkt.\n\n\nMLOps basiert stattdessen auf **unified Vision**. Pipelines müssen auf kohärenten Bausteinen basieren, idealerweise gruppiert in integrierten Plattformen wie **GitLab**, die Fragmentierung begrenzen und End-to-End-Nachvollziehbarkeit garantieren.\n\n\n### Fehlende Business-Metriken\n\n\nEin Modell kann exzellente technische Scores erreichen und dennoch für die Organisation nutzlos sein. Fehlende Business-Indikatoren führen zum Deployment scheinbar performanter Modelle, die aber **von realen Anforderungen disconnected** sind. Business-Metriken-Tracking (detektierte Betrugs-Rate, Kunden-Zufriedenheit, eingesparte Processing-Zeit) muss klassische Machine-Learning-Metriken ergänzen.\n\n\n### Instabile Daten und Technical Debt\n\n\nOhne robuste Daten-Pipelines erben Modelle instabile oder nicht-repräsentative Sets. Kurzfristig schafft dies unvorhersagbare Ergebnisse. Langfristig **generiert Bugfix-Multiplikation Technical Debt**, die jede Evolution erschwert. MLOps erfordert Data-Engineering-Praktiken und kontinuierliche Supervision zur Aufrechterhaltung zuverlässiger Daten-Flows und Vermeidung dieses Schneeballeffekts.\n\n\n## MLOps vs DevOps: Unterschiede\n\n\nMLOps ist direkt von DevOps inspiriert. Beide Disziplinen teilen dieselbe Philosophie: Development und Operations annähern, Timelines reduzieren und Deployments durch Automatisierung zuverlässiger machen. Aber ihre Anwendungen divergieren, sobald es um Machine-Learning-Modelle geht.\n\n\n### Gemeinsamkeiten\n\n\nBeide Ansätze basieren auf demselben Toolset: **CI/CD-Pipelines, Monitoring und Versions-Management**. In beiden Fällen bleibt das Ziel identisch: **schnell zuverlässige Artefakte in Production liefern.**\n\n\n### Was sie unterscheidet\n\n\nDer fundamentale Unterschied kommt von der **Artefakt-Natur**. In DevOps deployen wir statische Applikationen. In MLOps deployen wir **Modelle aus sich bewegenden Daten**.\n\n\nDiese Spezifität führt zu fünf Haupt-Konsequenzen:\n\n\n* Notwendigkeit, **Daten und Modelle zu versionieren**, nicht nur Code;\n\n* Integration von **Business-Validationen** zusätzlich zu technischen Tests;\n\n* **Kontinuierliche Performance-Überwachung**, da Modelle über Zeit degradieren;\n\n* **Experimentelle Natur**: Derselbe Code kann verschiedene Ergebnisse produzieren abhängig von Daten und Parametern – systematisches Tracking jedes Experiments erforderlich;\n\n* **Iterative Hyperparameter-Optimierung** (Learning Rate, Architektur, etc.) muss exploriert, verglichen und versioniert werden zur Identifikation der besten Konfiguration.\n\n\n### MLOps-Position zu DataOps und ModelOps\n\n\nMLOps existiert nicht isoliert. Es liegt an der Kreuzung zweier anderer Disziplinen: **DataOps**, fokussiert auf Daten-Qualität und -Governance, und **ModelOps**, fokussiert auf Modell-Management und -Deployment.\n\n\nDurch Kombination dieser beiden Dimensionen übernimmt MLOps **den gesamten Zyklus: von Daten-Zuverlässigkeit bis Modell-Industrialisierung.**\n\n\n## Aktuelle Trends\n\n\nMLOps evolviert schnell, getrieben von KI-Industrialisierung und Entstehung neuer technischer und regulatorischer Constraints. Mehrere Trends strukturieren bereits die Praktiken der kommenden Jahre.\n\n\n### Serverless MLOps und Distributed MLOps\n\n\nDie wachsende **Serverless**-Adoption vereinfacht ML-Pipeline-Execution: Ressourcen passen sich automatisch an Load an und reduzieren Kosten und Komplexität. Parallel gewinnt **Distributed MLOps an der Edge** an Bedeutung, besonders in IoT und Embedded Applications. Modelle laufen direkt näher an Daten mit weniger Latenz und mehr Reaktivität.\n\n\n### Neue Governance- und Regulations-Anforderungen\n\n\nMit dem **[europäischen AI Act](https://www.europarl.europa.eu/topics/de/article/20230601STO93804/eu-gesetz-uber-kunstliche-intelligenz-erste-regelung-zur-ki)**, der 2024 in Kraft trat, wird Compliance zum strategischen Thema. Organisationen müssen Nachvollziehbarkeit, Erklärbarkeit und Robustheit ihrer Modelle beweisen. MLOps wird essenzieller Hebel zur Integration dieser Verpflichtungen heute – statt Blockaden bei Audits oder Produkt-Launches zu erleiden.\n\n\n**Deutsche Unternehmen profitieren von MLOps-Praktiken besonders für KI-Verordnung-Compliance:** Artikel 9 fordert Risiko-Management-Systeme mit dokumentierten Testverfahren. Artikel 17 verlangt umfassende technische Dokumentation inklusive Daten-Provenienz, Modell-Architektur und Validation-Ergebnissen. MLOps-Pipelines mit systematischem Versioning, automatisierten Tests und Audit-Logs erfüllen diese Anforderungen direkt und schaffen audit-fähige Nachweise.\n\n\n## Praktische Ressourcen und Tools\n\n\nMLOps bleibt nicht bei Konzepten. Es nimmt Form an in Workflows, Metriken und Governance-Regeln, die Teams in Projekten implementieren können.\n\n\n### Checklist für MLOps-Pipeline-Launch\n\n\nMLOps-Pipeline-Setup improvisiert sich nicht. Diese Checklist hilft beim Start unter guten Bedingungen:\n\n\n* Business-Ziele und Key Performance Indicators (KPIs) definieren;\n\n* Daten-Pipelines mit automatisierten Validierungs-Regeln aufbereiten;\n\n* Code, Daten und Modelle versionieren;\n\n* Training, Tests und Deployment in CI/CD-Chain integrieren;\n\n* Kontinuierliches Performance- und Drift-Monitoring vorsehen;\n\n* Jede Phase für Governance und Compliance dokumentieren und tracken.\n\n\n### Production-Metriken-Beispiele\n\n\nEin Modell lässt sich nicht ohne Indikatoren steuern. Zu überwachende Metriken decken technische und Business-Aspekte ab:\n\n\n* **Technische Aspekte**: Präzision, Recall, F1-Score, Latenz, Fehler-Rate;\n\n* **Business-Aspekte**: detektierte Betrugs-Rate, operative Kostenreduktion, Kunden-Zufriedenheit;\n\n* **Operative Aspekte**: Ressourcen-Verbrauch, Kosten pro Prediction, Energie-Footprint.\n\n\nTracking dieser Metriken ermöglicht Drift-Antizipation, Modell-Adjustierung und Mehrwert-Nachweis.\n\n\n## Fazit: MLOps-Bedeutung für KI-Industrialisierung\n\n\nZahlreiche Machine-Learning-Projekte scheitern nicht an Modellen selbst, sondern weil sie den Production-Schritt nicht schaffen. Zu oft bleiben sie auf Notebooks beschränkt, schwer zu maintainen und unfähig, sich an sich ändernde Daten anzupassen. MLOps wurde geschaffen, um diese Lücke zu schließen.\n\n\nDurch Automatisierung kritischer Schritte, Garantie von Daten- und Modell-Nachvollziehbarkeit und Integration kontinuierlichen Trackings transformiert es isolierte Experimente in **dauerhafte Assets**. Es geht nicht mehr nur darum, eine Idee zu testen, sondern ein System zu bauen, das über Zeit Wert schaffen kann.\n\n\nMLOps-Adoption ist nicht nur technischer Ansatz – es ist **strategischer Hebel**. Es beschleunigt den Übergang von Experimentierung zu Deployment, reduziert Iterations-Kosten und gibt Business die notwendige Confidence für KI-Nutzung in großem Maßstab.\n\n\nUm weiterzugehen, benötigen Organisationen Tools, die diesen integrierten Ansatz fördern. Plattformen wie **GitLab**, bereits im Kern von DevOps-Praktiken, bieten eine solide Basis zur Pipeline-Orchestrierung, Versions-Management und Team-Annäherung. MLOps wird dann nicht nur Methode, sondern vertrauenswürdige Infrastruktur zur KI-Industrialisierung.\n\n\n## GitLab als natürliche MLOps-Basis\n\n\nMLOps-Ansatz umzusetzen bedeutet nicht, Tools zu akkumulieren, sondern eine kohärente Chain zu schaffen, die Development, Daten und Production verbindet. GitLab bietet präzise diese Kontinuität: eine einheitliche Umgebung, in der Teams Code versionieren, CI/CD-Pipelines orchestrieren, Modelle monitoren und jede Phase des Software-Entwicklungs-Lifecycles dokumentieren können. Durch Integration von MLOps-Praktiken in eine DevOps-Teams bereits vertraute Plattform vermeiden Organisationen Komplexität fragmentierter Infrastruktur und beschleunigen Transformation ihrer Machine-Learning-Projekte in operative Lösungen.\n\n\n## MLOps FAQ\n\n\n### Was ist der Unterschied zwischen MLOps und DevOps?\n\n\nDevOps adressiert klassische Software-Entwicklung, wo das finale Artefakt eine statische Applikation ist. MLOps übernimmt diese Automatisierungs- und Kollaborations-Logik, adaptiert sie aber an Machine-Learning-Spezifika. Der Haupt-Unterschied: Ein Modell ist nicht nur Code, sondern auch Daten, die sich über Zeit ändern. MLOps fügt daher Dataset- und Modell-Versioning, Business-Validation und kontinuierliches Performance-Tracking hinzu.\n\n\n### Welche Tools für MLOps-Setup?\n\n\nEin vielfältiges Ökosystem existiert: CI/CD-Plattformen, Monitoring-Lösungen, Daten-Versioning-Tools oder Modell-Management-Tools. Die Herausforderung ist weniger, Bausteine zu akkumulieren, als ihre Integration zu garantieren. Plattformen wie GitLab, bereits für DevOps und DevSecOps adaptiert, bieten eine unified Basis, die Automatisierung, Kollaboration und Nachvollziehbarkeit in MLOps-Rahmen erleichtert.\n\n\n### Wie managt man Modell-Drift in Production?\n\n\nDrift tritt auf, wenn Production-Daten nicht mehr Training-Daten ähneln und Performance sinkt. MLOps sieht kontinuierliches Metriken-Monitoring vor, Alerts bei Abweichungen und manchmal automatische Retraining-Mechanismen. Der Schlüssel: kritische Schwellen und zu überwachende Business-Metriken von Anfang an definieren.\n\n\n### Wie misst man MLOps-Ansatz-Erfolg?\n\n\nErfolg beschränkt sich nicht auf technische Modell-Performance. Er misst sich auch an:\n\n\n* **Zeit-Reduktion** vom Experiment zur Production;\n\n* **Stabilität und Nachvollziehbarkeit** deployter Modelle;\n\n* **Realem Business-Impact** via Indikatoren wie Produktivitäts-Gewinn, Kosten-Senkung oder Customer-Experience-Verbesserung.\n\n\nEin erfolgreicher MLOps-Ansatz kombiniert daher operative Effizienz und messbare Wert-Schöpfung.\n\n\n> **[→ GitLab Ultimate und GitLab Duo Enterprise kostenlos testen.](https://about.gitlab.com/de-de/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_de_blog_de)**\n",[22],"AI/ML","https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517473/wo6vgpvabalmnzqgzulh.jpg","yml",{},true,"/de-de/blog/what-is-mlops",{"config":29,"title":30,"ogTitle":30,"description":16,"ogDescription":16,"ogImage":23},{"noIndex":11},"MLOps für systematisches ML-Lifecycle-Management","de-de/blog/what-is-mlops",[33],"aiml","QY-XCErkfLfEO7zBAf7QXqPO_vggvzdqOcK7v1ONGxg",{"data":36},{"logo":37,"freeTrial":42,"sales":47,"login":52,"items":57,"search":366,"minimal":401,"duo":419,"pricingDeployment":428},{"config":38},{"href":39,"dataGaName":40,"dataGaLocation":41},"/de-de/","gitlab logo","header",{"text":43,"config":44},"Kostenlose Testversion anfordern",{"href":45,"dataGaName":46,"dataGaLocation":41},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/de-de&glm_content=default-saas-trial/","free trial",{"text":48,"config":49},"Vertrieb kontaktieren",{"href":50,"dataGaName":51,"dataGaLocation":41},"/de-de/sales/","sales",{"text":53,"config":54},"Anmelden",{"href":55,"dataGaName":56,"dataGaLocation":41},"https://gitlab.com/users/sign_in/","sign in",[58,85,181,186,287,347],{"text":59,"config":60,"cards":62},"Plattform",{"dataNavLevelOne":61},"platform",[63,69,77],{"title":59,"description":64,"link":65},"Die intelligente Orchestrierungsplattform für DevSecOps",{"text":66,"config":67},"Erkunde unsere Plattform",{"href":68,"dataGaName":61,"dataGaLocation":41},"/de-de/platform/",{"title":70,"description":71,"link":72},"GitLab Duo Agent Platform","Agentische KI für den gesamten Softwareentwicklungszyklus",{"text":73,"config":74},"Lerne GitLab Duo kennen",{"href":75,"dataGaName":76,"dataGaLocation":41},"/de-de/gitlab-duo-agent-platform/","gitlab duo agent platform",{"title":78,"description":79,"link":80},"Gründe, die für GitLab sprechen","Erfahre, warum Unternehmen auf GitLab setzen",{"text":81,"config":82},"Mehr erfahren",{"href":83,"dataGaName":84,"dataGaLocation":41},"/de-de/why-gitlab/","why gitlab",{"text":86,"left":26,"config":87,"link":89,"lists":93,"footer":163},"Produkt",{"dataNavLevelOne":88},"solutions",{"text":90,"config":91},"Alle Lösungen anzeigen",{"href":92,"dataGaName":88,"dataGaLocation":41},"/de-de/solutions/",[94,119,141],{"title":95,"description":96,"link":97,"items":102},"Automatisierung","CI/CD und Automatisierung zur Beschleunigung der Bereitstellung",{"config":98},{"icon":99,"href":100,"dataGaName":101,"dataGaLocation":41},"AutomatedCodeAlt","/de-de/solutions/delivery-automation/","automated software delivery",[103,107,110,115],{"text":104,"config":105},"CI/CD",{"href":106,"dataGaLocation":41,"dataGaName":104},"/de-de/solutions/continuous-integration/",{"text":70,"config":108},{"href":75,"dataGaLocation":41,"dataGaName":109},"gitlab duo agent platform - product menu",{"text":111,"config":112},"Quellcodeverwaltung",{"href":113,"dataGaLocation":41,"dataGaName":114},"/de-de/solutions/source-code-management/","Source Code Management",{"text":116,"config":117},"Automatisierte Softwarebereitstellung",{"href":100,"dataGaLocation":41,"dataGaName":118},"Automated software delivery",{"title":120,"description":121,"link":122,"items":127},"Sicherheit","Entwickle schneller, ohne die Sicherheit zu gefährden",{"config":123},{"href":124,"dataGaName":125,"dataGaLocation":41,"icon":126},"/de-de/solutions/application-security-testing/","security and compliance","ShieldCheckLight",[128,132,137],{"text":129,"config":130},"Application Security Testing",{"href":124,"dataGaName":131,"dataGaLocation":41},"Application security testing",{"text":133,"config":134},"Schutz der Software-Lieferkette",{"href":135,"dataGaLocation":41,"dataGaName":136},"/de-de/solutions/supply-chain/","Software supply chain security",{"text":138,"config":139},"Software Compliance",{"href":140,"dataGaName":138,"dataGaLocation":41},"/de-de/solutions/software-compliance/",{"title":142,"link":143,"items":148},"Bewertung",{"config":144},{"icon":145,"href":146,"dataGaName":147,"dataGaLocation":41},"DigitalTransformation","/de-de/solutions/visibility-measurement/","visibility and measurement",[149,153,158],{"text":150,"config":151},"Sichtbarkeit und Bewertung",{"href":146,"dataGaLocation":41,"dataGaName":152},"Visibility and Measurement",{"text":154,"config":155},"Wertstrommanagement",{"href":156,"dataGaLocation":41,"dataGaName":157},"/de-de/solutions/value-stream-management/","Value Stream Management",{"text":159,"config":160},"Analysen und Einblicke",{"href":161,"dataGaLocation":41,"dataGaName":162},"/de-de/solutions/analytics-and-insights/","Analytics and insights",{"title":164,"items":165},"GitLab für",[166,171,176],{"text":167,"config":168},"Enterprise",{"href":169,"dataGaLocation":41,"dataGaName":170},"/de-de/enterprise/","enterprise",{"text":172,"config":173},"Kleinunternehmen",{"href":174,"dataGaLocation":41,"dataGaName":175},"/de-de/small-business/","small business",{"text":177,"config":178},"den öffentlichen Sektor",{"href":179,"dataGaLocation":41,"dataGaName":180},"/de-de/solutions/public-sector/","public sector",{"text":182,"config":183},"Preise",{"href":184,"dataGaName":185,"dataGaLocation":41,"dataNavLevelOne":185},"/de-de/pricing/","pricing",{"text":187,"config":188,"link":190,"lists":194,"feature":274},"Ressourcen",{"dataNavLevelOne":189},"resources",{"text":191,"config":192},"Alle Ressourcen anzeigen",{"href":193,"dataGaName":189,"dataGaLocation":41},"/de-de/resources/",[195,228,246],{"title":196,"items":197},"Erste Schritte",[198,203,208,213,218,223],{"text":199,"config":200},"Installieren",{"href":201,"dataGaName":202,"dataGaLocation":41},"/de-de/install/","install",{"text":204,"config":205},"Kurzanleitungen",{"href":206,"dataGaName":207,"dataGaLocation":41},"/de-de/get-started/","quick setup checklists",{"text":209,"config":210},"Lernen",{"href":211,"dataGaLocation":41,"dataGaName":212},"https://university.gitlab.com/","learn",{"text":214,"config":215},"Produktdokumentation",{"href":216,"dataGaName":217,"dataGaLocation":41},"https://docs.gitlab.com/","product documentation",{"text":219,"config":220},"Best-Practice-Videos",{"href":221,"dataGaName":222,"dataGaLocation":41},"/de-de/getting-started-videos/","best practice videos",{"text":224,"config":225},"Integrationen",{"href":226,"dataGaName":227,"dataGaLocation":41},"/de-de/integrations/","integrations",{"title":229,"items":230},"Entdecken",[231,236,241],{"text":232,"config":233},"Kundenerfolge",{"href":234,"dataGaName":235,"dataGaLocation":41},"/de-de/customers/","customer success stories",{"text":237,"config":238},"Blog",{"href":239,"dataGaName":240,"dataGaLocation":41},"/de-de/blog/","blog",{"text":242,"config":243},"Remote",{"href":244,"dataGaName":245,"dataGaLocation":41},"https://handbook.gitlab.com/handbook/company/culture/all-remote/","remote",{"title":247,"items":248},"Vernetzen",[249,254,259,264,269],{"text":250,"config":251},"GitLab-Services",{"href":252,"dataGaName":253,"dataGaLocation":41},"/de-de/services/","services",{"text":255,"config":256},"Community",{"href":257,"dataGaName":258,"dataGaLocation":41},"/community/","community",{"text":260,"config":261},"Forum",{"href":262,"dataGaName":263,"dataGaLocation":41},"https://forum.gitlab.com/","forum",{"text":265,"config":266},"Veranstaltungen",{"href":267,"dataGaName":268,"dataGaLocation":41},"/events/","events",{"text":270,"config":271},"Partner",{"href":272,"dataGaName":273,"dataGaLocation":41},"/de-de/partners/","partners",{"backgroundColor":275,"textColor":276,"text":277,"image":278,"link":282},"#2f2a6b","#fff","Perspektiven für die Softwareentwicklung der Zukunft",{"altText":279,"config":280},"the source promo card",{"src":281},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758208064/dzl0dbift9xdizyelkk4.svg",{"text":283,"config":284},"Lies die News",{"href":285,"dataGaName":286,"dataGaLocation":41},"/de-de/the-source/","the source",{"text":288,"config":289,"lists":291},"Unternehmen",{"dataNavLevelOne":290},"company",[292],{"items":293},[294,299,305,307,312,317,322,327,332,337,342],{"text":295,"config":296},"Über",{"href":297,"dataGaName":298,"dataGaLocation":41},"/de-de/company/","about",{"text":300,"config":301,"footerGa":304},"Karriere",{"href":302,"dataGaName":303,"dataGaLocation":41},"/jobs/","jobs",{"dataGaName":303},{"text":265,"config":306},{"href":267,"dataGaName":268,"dataGaLocation":41},{"text":308,"config":309},"Geschäftsführung",{"href":310,"dataGaName":311,"dataGaLocation":41},"/company/team/e-group/","leadership",{"text":313,"config":314},"Team",{"href":315,"dataGaName":316,"dataGaLocation":41},"/company/team/","team",{"text":318,"config":319},"Handbuch",{"href":320,"dataGaName":321,"dataGaLocation":41},"https://handbook.gitlab.com/","handbook",{"text":323,"config":324},"Investor Relations",{"href":325,"dataGaName":326,"dataGaLocation":41},"https://ir.gitlab.com/","investor relations",{"text":328,"config":329},"Trust Center",{"href":330,"dataGaName":331,"dataGaLocation":41},"/de-de/security/","trust center",{"text":333,"config":334},"AI Transparency Center",{"href":335,"dataGaName":336,"dataGaLocation":41},"/de-de/ai-transparency-center/","ai transparency center",{"text":338,"config":339},"Newsletter",{"href":340,"dataGaName":341,"dataGaLocation":41},"/company/contact/#contact-forms","newsletter",{"text":343,"config":344},"Presse",{"href":345,"dataGaName":346,"dataGaLocation":41},"/press/","press",{"text":348,"config":349,"lists":350},"Kontakt",{"dataNavLevelOne":290},[351],{"items":352},[353,356,361],{"text":48,"config":354},{"href":50,"dataGaName":355,"dataGaLocation":41},"talk to sales",{"text":357,"config":358},"Support-Portal",{"href":359,"dataGaName":360,"dataGaLocation":41},"https://support.gitlab.com","support portal",{"text":362,"config":363},"Kundenportal",{"href":364,"dataGaName":365,"dataGaLocation":41},"https://customers.gitlab.com/customers/sign_in/","customer portal",{"close":367,"login":368,"suggestions":375},"Schließen",{"text":369,"link":370},"Um Repositories und Projekte zu durchsuchen, melde dich an bei",{"text":371,"config":372},"gitlab.com",{"href":55,"dataGaName":373,"dataGaLocation":374},"search login","search",{"text":376,"default":377},"Vorschläge",[378,380,385,387,392,397],{"text":70,"config":379},{"href":75,"dataGaName":70,"dataGaLocation":374},{"text":381,"config":382},"Code Suggestions (KI)",{"href":383,"dataGaName":384,"dataGaLocation":374},"/de-de/solutions/code-suggestions/","Code Suggestions (AI)",{"text":104,"config":386},{"href":106,"dataGaName":104,"dataGaLocation":374},{"text":388,"config":389},"GitLab auf AWS",{"href":390,"dataGaName":391,"dataGaLocation":374},"/de-de/partners/technology-partners/aws/","GitLab on AWS",{"text":393,"config":394},"GitLab auf Google Cloud",{"href":395,"dataGaName":396,"dataGaLocation":374},"/de-de/partners/technology-partners/google-cloud-platform/","GitLab on Google Cloud",{"text":398,"config":399},"Warum GitLab?",{"href":83,"dataGaName":400,"dataGaLocation":374},"Why GitLab?",{"freeTrial":402,"mobileIcon":407,"desktopIcon":412,"secondaryButton":415},{"text":403,"config":404},"Kostenlos testen",{"href":405,"dataGaName":46,"dataGaLocation":406},"https://gitlab.com/-/trials/new/","nav",{"altText":408,"config":409},"GitLab-Symbol",{"src":410,"dataGaName":411,"dataGaLocation":406},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203874/jypbw1jx72aexsoohd7x.svg","gitlab icon",{"altText":408,"config":413},{"src":414,"dataGaName":411,"dataGaLocation":406},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203875/gs4c8p8opsgvflgkswz9.svg",{"text":196,"config":416},{"href":417,"dataGaName":418,"dataGaLocation":406},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/de-de/get-started/","get started",{"freeTrial":420,"mobileIcon":424,"desktopIcon":426},{"text":421,"config":422},"Erfahre mehr über GitLab Duo",{"href":75,"dataGaName":423,"dataGaLocation":406},"gitlab duo",{"altText":408,"config":425},{"src":410,"dataGaName":411,"dataGaLocation":406},{"altText":408,"config":427},{"src":414,"dataGaName":411,"dataGaLocation":406},{"freeTrial":429,"mobileIcon":434,"desktopIcon":436},{"text":430,"config":431},"Zurück zur Preisübersicht",{"href":184,"dataGaName":432,"dataGaLocation":406,"icon":433},"back to pricing","GoBack",{"altText":408,"config":435},{"src":410,"dataGaName":411,"dataGaLocation":406},{"altText":408,"config":437},{"src":414,"dataGaName":411,"dataGaLocation":406},{"title":439,"button":440,"config":445},"Sieh dir an, wie agentische KI die Softwarebereitstellung transformiert",{"text":441,"config":442},"GitLab Transcend jetzt ansehen",{"href":443,"dataGaName":444,"dataGaLocation":41},"/de-de/events/transcend/virtual/","transcend event",{"layout":446,"icon":447,"disabled":26},"release","AiStar",{"data":449},{"text":450,"source":451,"edit":457,"contribute":462,"config":467,"items":472,"minimal":645},"Git ist eine Marke von Software Freedom Conservancy und unsere Verwendung von „GitLab“ erfolgt unter Lizenz.",{"text":452,"config":453},"Quelltext der Seite anzeigen",{"href":454,"dataGaName":455,"dataGaLocation":456},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/","page source","footer",{"text":458,"config":459},"Diese Seite bearbeiten",{"href":460,"dataGaName":461,"dataGaLocation":456},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/content/","web ide",{"text":463,"config":464},"Beteilige dich",{"href":465,"dataGaName":466,"dataGaLocation":456},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/CONTRIBUTING.md/","please contribute",{"twitter":468,"facebook":469,"youtube":470,"linkedin":471},"https://x.com/gitlab","https://www.facebook.com/gitlab","https://www.youtube.com/channel/UCnMGQ8QHMAnVIsI3xJrihhg","https://www.linkedin.com/company/gitlab-com",[473,496,551,578,612],{"title":59,"links":474,"subMenu":479},[475],{"text":476,"config":477},"DevSecOps-Plattform",{"href":68,"dataGaName":478,"dataGaLocation":456},"devsecops platform",[480],{"title":182,"links":481},[482,486,491],{"text":483,"config":484},"Tarife anzeigen",{"href":184,"dataGaName":485,"dataGaLocation":456},"view plans",{"text":487,"config":488},"Vorteile von Premium",{"href":489,"dataGaName":490,"dataGaLocation":456},"/de-de/pricing/premium/","why premium",{"text":492,"config":493},"Vorteile von Ultimate",{"href":494,"dataGaName":495,"dataGaLocation":456},"/de-de/pricing/ultimate/","why ultimate",{"title":497,"links":498},"Lösungen",[499,504,507,509,514,519,523,526,529,534,536,538,541,546],{"text":500,"config":501},"Digitale Transformation",{"href":502,"dataGaName":503,"dataGaLocation":456},"/de-de/topics/digital-transformation/","digital transformation",{"text":505,"config":506},"Sicherheit und Compliance",{"href":124,"dataGaName":131,"dataGaLocation":456},{"text":116,"config":508},{"href":100,"dataGaName":101,"dataGaLocation":456},{"text":510,"config":511},"Agile Entwicklung",{"href":512,"dataGaName":513,"dataGaLocation":456},"/de-de/solutions/agile-delivery/","agile delivery",{"text":515,"config":516},"Cloud-Transformation",{"href":517,"dataGaName":518,"dataGaLocation":456},"/de-de/topics/cloud-native/","cloud transformation",{"text":520,"config":521},"SCM",{"href":113,"dataGaName":522,"dataGaLocation":456},"source code management",{"text":104,"config":524},{"href":106,"dataGaName":525,"dataGaLocation":456},"continuous integration & delivery",{"text":154,"config":527},{"href":156,"dataGaName":528,"dataGaLocation":456},"value stream management",{"text":530,"config":531},"GitOps",{"href":532,"dataGaName":533,"dataGaLocation":456},"/de-de/solutions/gitops/","gitops",{"text":167,"config":535},{"href":169,"dataGaName":170,"dataGaLocation":456},{"text":172,"config":537},{"href":174,"dataGaName":175,"dataGaLocation":456},{"text":539,"config":540},"Öffentlicher Sektor",{"href":179,"dataGaName":180,"dataGaLocation":456},{"text":542,"config":543},"Bildungswesen",{"href":544,"dataGaName":545,"dataGaLocation":456},"/de-de/solutions/education/","education",{"text":547,"config":548},"Finanzdienstleistungen",{"href":549,"dataGaName":550,"dataGaLocation":456},"/de-de/solutions/finance/","financial services",{"title":187,"links":552},[553,555,557,559,562,564,566,568,570,572,574,576],{"text":199,"config":554},{"href":201,"dataGaName":202,"dataGaLocation":456},{"text":204,"config":556},{"href":206,"dataGaName":207,"dataGaLocation":456},{"text":209,"config":558},{"href":211,"dataGaName":212,"dataGaLocation":456},{"text":214,"config":560},{"href":216,"dataGaName":561,"dataGaLocation":456},"docs",{"text":237,"config":563},{"href":239,"dataGaName":240,"dataGaLocation":456},{"text":232,"config":565},{"href":234,"dataGaName":235,"dataGaLocation":456},{"text":242,"config":567},{"href":244,"dataGaName":245,"dataGaLocation":456},{"text":250,"config":569},{"href":252,"dataGaName":253,"dataGaLocation":456},{"text":255,"config":571},{"href":257,"dataGaName":258,"dataGaLocation":456},{"text":260,"config":573},{"href":262,"dataGaName":263,"dataGaLocation":456},{"text":265,"config":575},{"href":267,"dataGaName":268,"dataGaLocation":456},{"text":270,"config":577},{"href":272,"dataGaName":273,"dataGaLocation":456},{"title":288,"links":579},[580,582,584,586,588,590,592,596,601,603,605,607],{"text":295,"config":581},{"href":297,"dataGaName":290,"dataGaLocation":456},{"text":300,"config":583},{"href":302,"dataGaName":303,"dataGaLocation":456},{"text":308,"config":585},{"href":310,"dataGaName":311,"dataGaLocation":456},{"text":313,"config":587},{"href":315,"dataGaName":316,"dataGaLocation":456},{"text":318,"config":589},{"href":320,"dataGaName":321,"dataGaLocation":456},{"text":323,"config":591},{"href":325,"dataGaName":326,"dataGaLocation":456},{"text":593,"config":594},"Sustainability",{"href":595,"dataGaName":593,"dataGaLocation":456},"/sustainability/",{"text":597,"config":598},"Vielfalt, Inklusion und Zugehörigkeit",{"href":599,"dataGaName":600,"dataGaLocation":456},"/de-de/diversity-inclusion-belonging/","Diversity, inclusion and belonging",{"text":328,"config":602},{"href":330,"dataGaName":331,"dataGaLocation":456},{"text":338,"config":604},{"href":340,"dataGaName":341,"dataGaLocation":456},{"text":343,"config":606},{"href":345,"dataGaName":346,"dataGaLocation":456},{"text":608,"config":609},"Transparenzerklärung zu moderner Sklaverei",{"href":610,"dataGaName":611,"dataGaLocation":456},"https://handbook.gitlab.com/handbook/legal/modern-slavery-act-transparency-statement/","modern slavery transparency statement",{"title":613,"links":614},"Nimm Kontakt auf",[615,618,623,625,630,635,640],{"text":616,"config":617},"Sprich mit einem Experten/einer Expertin",{"href":50,"dataGaName":51,"dataGaLocation":456},{"text":619,"config":620},"Support",{"href":621,"dataGaName":622,"dataGaLocation":456},"https://support.gitlab.com/hc/en-us/articles/11626483177756-GitLab-Support","get help",{"text":362,"config":624},{"href":364,"dataGaName":365,"dataGaLocation":456},{"text":626,"config":627},"Status",{"href":628,"dataGaName":629,"dataGaLocation":456},"https://status.gitlab.com/","status",{"text":631,"config":632},"Nutzungsbedingungen",{"href":633,"dataGaName":634,"dataGaLocation":456},"/terms/","terms of use",{"text":636,"config":637},"Datenschutzerklärung",{"href":638,"dataGaName":639,"dataGaLocation":456},"/de-de/privacy/","privacy statement",{"text":641,"config":642},"Cookie-Einstellungen",{"dataGaName":643,"dataGaLocation":456,"id":644,"isOneTrustButton":26},"cookie preferences","ot-sdk-btn",{"items":646},[647,649,651],{"text":631,"config":648},{"href":633,"dataGaName":634,"dataGaLocation":456},{"text":636,"config":650},{"href":638,"dataGaName":639,"dataGaLocation":456},{"text":641,"config":652},{"dataGaName":643,"dataGaLocation":456,"id":644,"isOneTrustButton":26},[654],{"id":655,"title":656,"body":8,"config":657,"content":659,"description":8,"extension":24,"meta":663,"navigation":26,"path":664,"seo":665,"stem":666,"__hash__":667},"blogAuthors/en-us/blog/authors/gitlab-germany-team.yml","Gitlab Germany Team",{"template":658},"BlogAuthor",{"name":18,"config":660},{"headshot":661,"ctfId":662},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749659488/Blog/Author%20Headshots/gitlab-logo-extra-whitespace.png","6tNquF8jQeRRRi8k3ZXpvS",{},"/en-us/blog/authors/gitlab-germany-team",{},"en-us/blog/authors/gitlab-germany-team","vGs9BT_ji6dORS29vl80DKX6mSputlQV2W7-4vW2hL8",[669,685,698],{"content":670,"config":683},{"title":671,"description":672,"authors":673,"body":676,"heroImage":677,"date":678,"category":9,"tags":679},"GitLab und Vertex AI auf Google Cloud: Agentenbasierte Softwareentwicklung","Erfahre, wie Google Cloud-Kunden auf GitLab und Vertex AI setzen – für Foundation Models, Enterprise-Kontrollen und die Vielfalt von Model Garden.\n",[674,675],"Regnard Raquedan","Rajesh Agadi","GitLab Duo Agent Platform verändert die Art und Weise, wie Unternehmen Software entwickeln, absichern und bereitstellen. Seit der allgemeinen Verfügbarkeit im Januar 2026 bringt die Plattform agentenbasierte KI in jede Phase des Software Development Lifecycle. Duo Agent Platform ist eine intelligente Orchestrierungsebene, auf der Softwareteams und ihre spezialisierten Agenten gemeinsam planen, programmieren, Reviews durchführen und Sicherheitslücken beheben.\n\nIm Rahmen dieser Partnerschaft automatisiert [GitLab Duo Agent Platform](https://about.gitlab.com/de-de/gitlab-duo-agent-platform/) die Orchestrierung und den Lifecycle-Kontext der Softwareentwicklung – über die Integration mit Vertex AI auf Google Cloud, das die Modellebene für Agent-Aufrufe bereitstellt. Softwareteams arbeiten weiterhin mit Issues, Merge Requests, Pipelines und Security-Workflows, während die Inferenz der Google Cloud-Konfiguration folgt, die bereits definiert wurde.\n\nFortschritte bei den Vertex AI-Modellen von Google Cloud erweitern die Einsatzmöglichkeiten von GitLab Duo Agent Platform. Kunden erhalten eine KI-gestützte DevSecOps-Steuerungsebene in GitLab, gestützt auf eine leistungsfähige KI-Infrastruktur in Vertex AI und die flexiblen Deployment- und Integrationsoptionen von Duo Agent Platform. In Kombination ermöglicht das leistungsfähigere, kontrollierte agentenbasierte Workflows im Enterprise-Maßstab.\n\n![Konzeptionelle Darstellung der GitLab Duo Agent Platform, integriert mit Google Clouds Vertex AI, für agentenbasierte Softwareentwicklung und kontrollierte KI-Workflows](https://res.cloudinary.com/about-gitlab-com/image/upload/v1776165990/b7jlux9kydafncwy8spc.png)\n\n\n## Agenten über den gesamten Lifecycle hinweg\n\n\nViele KI-Tools konzentrieren sich auf eine einzelne Aufgabe: Code schneller generieren. GitLab Duo Agent Platform geht weiter. Die Plattform orchestriert KI-Agenten über den gesamten Software Development Lifecycle (SDLC) – von der Planung über das Security-Review bis zur Auslieferung, teamübergreifend und über viele Projekte und Releases hinweg. In diesem Maßstab sind KI-Coding-Assistenten zwar notwendig für kontinuierliche Innovation, aber nicht ausreichend.\n\nEinzelne Coding-Assistenten erfassen selten den vollständigen Zustand eines Projekts. Backlog-Strukturen, offene Merge Requests, fehlgeschlagene Jobs und Sicherheitsbefunde befinden sich in GitLab – aber ein separates Chat-Fenster in einem Coding-Assistenten übernimmt dieses Gesamtbild des SDLC nicht. Die Lücke zeigt sich in manuellen Übergaben, wiederholten Erklärungen an eine KI ohne Kontext und Governance-Teams, die Datenflüsse über Tools hinweg nachvollziehen müssen, die nie als einheitliches System konzipiert wurden.\n\nGitLab Duo Agent Platform schließt diese Lücke, indem Agenten und Flows auf denselben Objekten arbeiten, die Entwicklungsteams täglich nutzen. Vertex AI liefert dabei die Modelle und Services, die diese Agenten aufrufen, wenn Google Cloud als Inferenz-Umgebung gewählt wird – wobei GitLabs AI Gateway den Zugriff vermittelt, sodass Administratoren jederzeit nachvollziehen können, was womit verbunden ist. So analysiert beispielsweise der GitLab Duo Planner Agent Backlogs, gliedert Epics in strukturierte Aufgaben und wendet Priorisierungs-Frameworks an, um Teams bei der Entscheidung zu unterstützen, was als Nächstes umgesetzt werden soll. Der Security Analyst Agent priorisiert Schwachstellen, beschreibt Risiken in verständlicher Sprache und empfiehlt Behebungsmaßnahmen in priorisierter Reihenfolge. Integrierte Flows verbinden diese Agenten zu durchgängigen Prozessen, ohne dass Entwicklungsteams jeden Übergabeschritt manuell steuern müssen.\n\nAgentic Chat in GitLab Duo Agent Platform verbindet das Gesamterlebnis für Entwicklungsteams. Abfragen in natürlicher Sprache liefern kontextbezogene Antworten mit mehrstufigem Reasoning, das auf den vollständigen Projektzustand zugreift: Issues, Merge Requests, Pipelines, Sicherheitsbefunde und Codebase. Da GitLab als System of Record für den SDLC mit einem einheitlichen Datenmodell dient, arbeiten GitLab Duo-Agenten mit Lifecycle-Kontext, der über die Reichweite eigenständiger, toolspezifischer KI-Assistenten hinausgeht.\n\n\n### Verstärkt durch Vertex AI\n\n\nGitLab Duo Agent Platform ist modellflexibel konzipiert und leitet verschiedene Aufgaben an verschiedene Modelle weiter – je nachdem, welches Modell für die jeweilige Aufgabe am besten geeignet ist. Diese Architekturentscheidung zahlt sich auf Google Cloud aus, wo Vertex AI als verwaltete Umgebung für Foundation Models und zugehörige Services fungiert und ein breites Modell-Ökosystem sowie verwaltete Infrastruktur bereitstellt, die die Plattformfähigkeiten erweitert.\n\nDie neuesten Generationen von KI-Modellen, die über Vertex AI verfügbar sind, bieten deutliche Verbesserungen bei Reasoning, Tool-Nutzung und Long-Context-Verständnis gegenüber früheren Versionen – genau die Eigenschaften, auf die GitLabs Agenten bei der Arbeit mit vielen Projekten und Teams mit großen, komplexen Codebases angewiesen sind. Längere Kontextfenster und umfangreichere Tool-Integration in den zugrunde liegenden Modellen erweitern das, was Agenten in einem einzigen Durchlauf erreichen können – besonders relevant bei Aufgaben wie einer umfassenden Backlog-Analyse oder dem Security-Review von Monorepos.\n\n[Vertex AI Model Garden](https://cloud.google.com/model-garden) bietet mit Zugang zu einer breiten Palette von Foundation Models die nötige Auswahl, um Entscheidungen auf Basis von Leistung, Kosten und regulatorischen Anforderungen zu treffen – statt an einen einzelnen Anbieter gebunden zu sein.\n\nDarüber hinaus können GitLab-Kunden Bring Your Own Model (BYOM) für Duo Agent Platform nutzen, sodass zugelassene Anbieter und Gateways dort eingebunden werden, wo das eigene Sicherheitsmodell es vorsieht. In GitLabs [Beitrag zum 18.9-Release über Self-Hosted Duo Agent Platform und BYOM](https://about.gitlab.com/de-de/blog/agentic-ai-enterprise-control-self-hosted-duo-agent-platform-and-byom/) wird beschrieben, wie diese Anbindung funktioniert. Mit dieser Deployment-Option erhalten Kunden Zugang zu einem breiteren Spektrum an Modelloptionen, die sich auf den eigenen Entwicklungsprozess zuschneiden lassen: das richtige Modell für den richtigen Workflow mit den richtigen Leitplanken.\n\nFür GitLab war die Entscheidung, auf Vertex AI zu bauen, von der Anforderung an Enterprise-taugliche Zuverlässigkeit und breite Modellverfügbarkeit getrieben. Vertex AI und Model Garden abstrahieren das LLM-Hosting vollständig – das bedeutet schnelle Versionsbereitstellung, robuste Sicherheit und strikte Governance sind in die Integration eingebaut. Über Gemini-Modelle hinaus bietet Vertex AI globalen, latenzarmen Zugang zu einem umfangreichen Katalog von Drittanbieter- und Open-Source-Modellen.\n\nIn Kombination mit Google Clouds Ansatz für Datenschutz und Modellschutz war Vertex AI die passende Wahl, um GitLabs Developer Experience der nächsten Generation zu unterstützen.\n\nDurch die Integration von Vertex AI Model Garden in das Backend erweitert GitLab seine DevSecOps-Plattform, ohne den Nutzenden zusätzliche Komplexität aufzubürden. Entwicklungsteams müssen die zugrunde liegenden LLMs weder evaluieren noch verwalten – stattdessen nutzen sie einen optimierten, KI-gestützten Workflow für die Entwicklung ihrer Anwendungen.\n\nGitLab abstrahiert die Cloud-Orchestrierung vollständig, sodass sich Entwicklungsteams ganz auf das Schreiben von Code konzentrieren können, während Vertex AI die unterstützenden Features und Funktionen bereitstellt.\n\n\n## Was das für Kunden auf Google Cloud bedeutet\n\n\nGitLab Duo Agent Platform liefert bereits heute KI-Agenten, die über den gesamten Software-Lifecycle hinweg innerhalb eines einzigen, kontrollierten System of Record arbeiten. Auf Google Cloud ermöglicht das schnelle Innovation, während Vertex AI die Modell- und Infrastrukturebene kontinuierlich weiterentwickelt.\n\nFür Google Cloud-Kunden bedeutet diese Integration eine optimierte Softwarebereitstellung bei gleichzeitig strikter Enterprise-Governance. Für Platform-Engineering-Teams bedeutet es, zu standardisieren, welche Vertex-gestützten Modelle Vorschläge, Analysen und Behebungen innerhalb von GitLab bereitstellen – statt Dutzende clientseitiger Tools zu katalogisieren. Sicherheitsprogramme profitieren, wenn Agenten Fixes dort vorschlagen und validieren, wo Entwicklungsteams bereits Befunde bearbeiten, was Kontextwechsel reduziert und Arbeit vermeidet, die sonst in nicht verwaltete Kanäle abfließen würde.\n\nAus Sicht der Cloud-Ökonomie und -Governance sorgt die Steuerung der Agent-Inferenz über Vertex innerhalb von GitLab dafür, dass die Nutzung näher an den bestehenden Vereinbarungen und Kontrollen auf Google Cloud bleibt – das hilft, doppelte Ausgaben und Schattenpfade zu vermeiden, die am Einkauf vorbeilaufen.\n\nDa Vertex AI als zugrunde liegender Infrastrukturanbieter für GitLab Duo Agent Platform dient, können Unternehmen die Produktivität ihrer Entwicklungsteams deutlich steigern – ohne den Overhead und das Risiko fragmentierter KI-Toolchains. Teams bleiben innerhalb eines einzigen, sicheren System of Record abgestimmt und können Anwendungen schneller entwickeln und mit Zuversicht ausliefern.\n\nDie Zusammenarbeit zwischen GitLab und Google Cloud besteht seit 2018. Heute stellt sie einen der umfassendsten Wege dar, um von KI-Experimenten zu vollständig kontrollierter, agentenbasierter Softwareentwicklung auf Google Cloud zu gelangen. Da sich beide Plattformen kontinuierlich weiterentwickeln – GitLab mit erweiterter Agent-Orchestrierung und Developer-Kontext, Vertex AI mit weiter steigender Modellleistung und Agent-Infrastruktur – wird der Mehrwert für gemeinsame Kunden weiter wachsen.\n\n> [Starte eine kostenlose Testversion von GitLab Duo Agent Platform](https://about.gitlab.com/de-de/free-trial/), um GitLab und Vertex AI auf Google Cloud kennenzulernen.\n","https://res.cloudinary.com/about-gitlab-com/image/upload/v1749663121/Blog/Hero%20Images/LogoLockupPlusLight.png","2026-04-14",[22,273,680,681,682],"google","news","product",{"featured":26,"template":12,"slug":684},"gitlab-and-vertex-ai-on-google-cloud",{"content":686,"config":696},{"heroImage":687,"title":688,"description":689,"authors":690,"date":692,"category":9,"tags":693,"body":695},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643639/sapu29gmlgtwvhggmj6k.png","GitLab Duo Agent Platform erweitern: Beliebige Tools per MCP verbinden","Externe Tools wie Jira über MCP direkt in GitLab Duo Agent Platform einbinden – Schritt-für-Schritt-Einrichtung mit drei praxisnahen Workflow-Demos.",[691],"Albert Rabassa","2026-03-05",[9,682,694],"tutorial","Die Verwaltung von Software-Entwicklungsprojekten bedeutet oft, zwischen verschiedenen Tools zu wechseln: Issues in Jira verfolgen, Code in der IDE schreiben, in GitLab zusammenarbeiten. Dieses ständige Wechseln zwischen Plattformen unterbricht den Fokus und verlangsamt die Lieferung.\n\n\n\nMit der MCP-Unterstützung des [GitLab Duo Agent Platform](https://about.gitlab.com/topics/ai/model-context-protocol/) lassen sich Jira und andere MCP-kompatible Tools direkt in die KI-gestützte Entwicklungsumgebung einbinden. Issues abfragen, Tickets aktualisieren, Workflows synchronisieren – per natürlicher Sprache, direkt aus der IDE.\n\n\n\n## Was in diesem Tutorial vermittelt wird\n\n\n\nDieses Tutorial zeigt:\n\n\n\n* **Einrichtung der Jira/Atlassian OAuth-Anwendung** für sichere Authentifizierung\n\n* **Konfiguration des GitLab Duo Agent Platform** als MCP-Client\n\n* **Drei praxisnahe Anwendungsfälle** mit realen Workflows\n\n\n\n## Voraussetzungen\n\n\n\nVor dem Start sollten folgende Voraussetzungen erfüllt sein:\n\n\n\n| Voraussetzung | Details |\n| ---- | ----- |\n| **GitLab-Instanz** | GitLab 18.8+ mit aktiviertem Duo Agent Platform |\n| **Jira-Konto** | Jira Cloud-Instanz mit Admin-Zugriff zum Erstellen von OAuth-Anwendungen |\n| **IDE** | Visual Studio Code mit installierter GitLab Workflow-Erweiterung |\n| **MCP-Unterstützung** | MCP-Unterstützung in GitLab aktiviert |\n\n\n\n## Architektur verstehen\n\n\n\nDer GitLab Duo Agent Platform agiert als **MCP-Client** und stellt eine Verbindung zum Atlassian MCP-Server her, um auf Jira-Projektmanagement-Daten zuzugreifen. Der Atlassian MCP-Server übernimmt die Authentifizierung, übersetzt natürlichsprachliche Anfragen in API-Aufrufe und gibt strukturierte Daten zurück – bei gleichzeitiger Einhaltung von Sicherheits- und Audit-Anforderungen.\n\n\n\n## Teil 1: Jira OAuth-Anwendung konfigurieren\n\n\n\nUm den GitLab Duo Agent Platform sicher mit der Jira-Instanz zu verbinden, muss eine OAuth 2.0-Anwendung in der Atlassian Developer Console erstellt werden. Diese erteilt dem GitLab MCP-Server autorisierten Zugriff auf die Jira-Daten.\n\n\n\n### Einrichtungsschritte\n\n\n\nFür die manuelle Konfiguration sind folgende Schritte erforderlich:\n\n\n\n1. **Atlassian Developer Console aufrufen**\n\n\n   * [developer.atlassian.com/console/myapps](https://developer.atlassian.com/console/myapps) öffnen\n\n\n   * Mit dem Atlassian-Konto anmelden\n\n\n2. **Neue OAuth 2.0-App erstellen**\n\n\n   * **Create** → **OAuth 2.0 integration** klicken\n\n\n   * Namen eingeben (z. B. „gitlab-dap-mcp\")\n\n\n   * Nutzungsbedingungen akzeptieren und **Create** klicken\n\n\n3. **Berechtigungen konfigurieren**\n\n\n   * In der linken Seitenleiste zu **Permissions** navigieren\n\n\n   * **Jira API** hinzufügen und folgende Scopes konfigurieren:\n\n\n     * `read:jira-work` — Issues, Projekte und Boards lesen\n\n\n     * `write:jira-work` — Issues erstellen und aktualisieren\n\n\n     * `read:jira-user` — Benutzerinformationen lesen\n\n\n4. **Autorisierung einrichten**\n\n\n   * In der linken Seitenleiste zu **Authorization** navigieren\n\n\n   * Callback-URL für die Umgebung hinzufügen (`https://gitlab.com/oauth/callback`)\n\n\n   * Änderungen speichern\n\n\n5. **Zugangsdaten abrufen**\n\n\n   * Zu **Settings** navigieren\n\n\n   * **Client ID** und **Client Secret** kopieren\n\n\n   * Sicher aufbewahren – diese werden für die MCP-Konfiguration benötigt\n\n\n\n\n### Interaktive Anleitung: Jira OAuth-Einrichtung\n\n\n\nAuf das Bild klicken, um zu beginnen.\n\n\n\n\n\n[![Jira OAuth setup tour](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772644850/wnzfoq43nkkfmgdqldmr.png)](https://gitlab.navattic.com/jira-oauth-setup)\n\n\n\n\n\n## Teil 2: GitLab Duo Agent Platform MCP-Client konfigurieren\n\n\n\nMit den bereitgestellten OAuth-Zugangsdaten kann der GitLab Duo Agent Platform nun für die Verbindung mit dem Atlassian MCP-Server konfiguriert werden.\n\n\n\n### MCP-Konfigurationsdatei erstellen\n\n\n\nDie MCP-Konfigurationsdatei im GitLab-Projekt unter `.gitlab/duo/mcp.json` erstellen:\n\n```json\n{\n  \"mcpServers\": {\n    \"atlassian\": {\n      \"type\": \"http\",\n      \"url\": \"https://mcp.atlassian.com/v1/mcp\",\n      \"auth\": {\n        \"type\": \"oauth2\",\n        \"clientId\": \"YOUR_CLIENT_ID\",\n        \"clientSecret\": \"YOUR_CLIENT_SECRET\",\n        \"authorizationUrl\": \"https://auth.atlassian.com/oauth/authorize\",\n        \"tokenUrl\": \"https://auth.atlassian.com/oauth/token\"\n      },\n      \"approvedTools\": true\n    }\n  }\n}\n```\n\n\n\n`YOUR_CLIENT_ID` und `YOUR_CLIENT_SECRET` durch die in Teil 1 generierten Zugangsdaten ersetzen.\n\n\n\n### MCP in GitLab aktivieren\n\n\n\n1. Zu **Gruppeneinstellungen** → **GitLab Duo** → **Konfiguration** navigieren\n\n2. „Externe MCP-Tools erlauben\" aktivieren\n\n\n\n### Verbindung überprüfen\n\n\n\nDas Projekt in VS Code öffnen und im GitLab Duo Agent Platform Chat eingeben:\n\n```text\nWhat MCP tools do you have access to?\n```\n\n\n\nDann\n```text\nTest the MCP JIRA configuration in this project\n```\n\n\n\nAnschließend erfolgt eine Weiterleitung von der IDE zur MCP Atlassian-Website zur Zugriffsgenehmigung:\n\n\n\n![Redirect to MCP Atlassian website](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643461/z5acqjgguh0damnnde9g.png \"Redirect to MCP Atlassian website\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n![Approve access](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643461/rwowamm8nsubhpixtn3i.png \"Approve access\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n![Select your JIRA instance and approve](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643461/chuzqd0jeptfwvoj7wjr.png \"Select your JIRA instance and approve\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n![Success!](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643462/bsgti5iste2bzck19o5y.png \"Success!\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n### Überprüfung über das MCP-Dashboard\n\n\n\nGitLab bietet zudem ein integriertes **MCP-Dashboard** direkt in der IDE.\n\n\n\nIn VS Code oder VSCodium die Befehlspalette öffnen (`Cmd+Shift+P` unter macOS, `Ctrl+Shift+P` unter Windows/Linux) und nach **„GitLab: Show MCP Dashboard\"** suchen. Das Dashboard öffnet sich in einem neuen Editor-Tab und zeigt:\n\n\n\n* **Verbindungsstatus** für jeden konfigurierten MCP-Server\n\n* **Verfügbare Tools** des Servers (z. B. `jira_get_issue`, `jira_create_issue`)\n\n* **Server-Logs** mit Echtzeit-Protokollierung der aufgerufenen Tools\n\n\n\n![MCP servers dashboard and status](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643462/mmvdfchucacsydivowvn.png \"MCP servers dashboard and status\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n![Server details and permissions](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643462/tcocgdvovp2dl42pvfn8.png \"Server details and permissions\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n![MCP Server logs](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772643466/mougvqqk1bozchaufsci.png \"MCP Server logs\")\n\n\n\n\u003Cbr>\u003C/br>\n\n\n\n### Interaktive Anleitung: MCP testen\n\n\n\n\u003Ciframe src=\"https://player.vimeo.com/video/1170005495?badge=0&amp;autopause=0&amp; player_id=0&amp;app_id=58479\" frameborder=\"0\" allow=\"autoplay; fullscreen; picture-in-picture; clipboard-write; encrypted-media; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" style=\"position:absolute;top:0;left:0;width:100%;height:100%;\" title=\"Testing MCP\">\u003C/iframe>\u003Cscript src=\"https://player.vimeo.com/api/player.js\">\u003C/script>\n\n\n\n## Teil 3: Anwendungsfälle in der Praxis\n\n\n\nMit der konfigurierten Integration lassen sich drei praxisnahe Workflows erkunden, die die Möglichkeiten der Jira-Anbindung an den GitLab Duo Agent Platform demonstrieren.\n\n\n\n### Planungsassistent\n\n\n\n**Szenario:** Vorbereitung auf Sprint-Planung – schnelle Bewertung des Backlogs, Verstehen von Prioritäten, Identifizierung von Blockern.\n\n\n\nDiese Demo zeigt:\n\n\n\n* Backlog abfragen\n\n* Nicht zugewiesene hochpriorisierte Issues identifizieren\n\n* KI-gestützte Sprint-Empfehlungen erhalten\n\n\n\n#### Beispiel-Prompts\n\n\n\nIm GitLab Duo Agent Platform Chat ausprobieren:\n\n```text\nList all the unassigned issues in JIRA for project GITLAB\n```\n\n```text\nSuggest the two top issues to prioritize and summarize them. Assign them to me.\n```\n\n\n### Interaktive Anleitung: Projektplanung\n\n\n\n\u003Ciframe src=\"https://player.vimeo.com/video/1170005462?badge=0&amp;autopause=0&amp;player_id=0&amp;app_id=58479\" frameborder=\"0\" allow=\"autoplay; fullscreen; picture-in-picture; clipboard-write; encrypted-media; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" style=\"position:absolute;top:0;left:0;width:100%;height:100%;\" title=\"Project Planning\">\u003C/iframe>\u003Cscript src=\"https://player.vimeo.com/api/player.js\">\u003C/script>\n\n\n\n### Issue-Triage und Erstellung aus dem Code\n\n\n\n**Szenario:** Beim Code-Review wird ein Bug entdeckt – ein Jira-Issue mit relevantem Kontext erstellen, ohne die IDE zu verlassen.\n\n\n\nDiese Demo zeigt:\n\n\n\n* Einen Bug beim Coding identifizieren\n\n* Ein detailliertes Jira-Issue per natürlicher Sprache erstellen\n\n* Issue-Felder automatisch mit Code-Kontext befüllen\n\n* Das Issue mit dem aktuellen Branch verknüpfen\n\n\n\n#### Beispiel-Prompts\n```text\nSearch in JIRA for a bug related to: Null pointer exception in PaymentService.processRefund().\n\nIf it does not exist create it with all the context needed from the code. Find possible blockers that this bug may cause.\n```\n\n```text\nCreate a new branch called issue-gitlab-18, checkout, and link it to the issue we just created. Assign the JIRA issue to me and mark it as in-progress.\n```\n\n\n\n### Interaktive Anleitung: Bug-Review und Aufgaben-Automatisierung\n\n\n\n\u003Ciframe src=\"https://player.vimeo.com/video/1170005368?badge=0&amp;autopause=0&amp; player_id=0&amp;app_id=58479\" frameborder=\"0\" allow=\"autoplay; fullscreen; picture-in-picture; clipboard-write; encrypted-media; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" style=\"position:absolute;top:0;left:0;width:100%;height:100%;\" title=\"Bug Review\">\u003C/iframe>\u003Cscript src=\"https://player.vimeo.com/api/player.js\">\u003C/script>\n\n\n\n### Systemübergreifende Incident-Untersuchung\n\n\n\n**Szenario:** Ein Production-Incident tritt auf – Informationen aus Jira, GitLab Project Management, Codebase und Merge Requests werden korreliert, um die Ursache zu identifizieren.\n\n\n\nDiese Demo zeigt:\n\n\n\n* Incident-Details aus Jira abrufen\n\n* Mit aktuellen Merge Requests in GitLab korrelieren\n\n* Möglicherweise betroffene Code-Änderungen identifizieren\n\n* Eine Incident-Timeline generieren\n\n* Einen Behebungsplan entwerfen und als Work Item in GitLab erstellen\n\n\n\n#### Beispiel-Prompts\n\n```text\n\"We have a production incident INC-1 about checkout failures. Can you help me investigate with all available context?\"\n```\n\n```text\nCreate a timeline of events for incident INC-1 including related Jira issues and recent deployments\n```\n\n```text\nPropose a remediation plan\n```\n\n\n\n### Interaktive Anleitung: Systemübergreifende Fehleranalyse und Behebung\n\n\n\n\u003Ciframe src=\"https://player.vimeo.com/video/1170005413?badge=0&amp;autopause=0&amp; player_id=0&amp;app_id=58479\" frameborder=\"0\" allow=\"autoplay; fullscreen; picture-in-picture; clipboard-write; encrypted-media; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" style=\"position:absolute;top:0;left:0;width:100%;height:100%;\" title=\"Cross System Investigation\">\u003C/iframe>\u003Cscript src=\"https://player.vimeo.com/api/player.js\">\u003C/script>\n\n\n\n## Fehlerbehebung\n\n\n\nHäufige Einrichtungsprobleme und schnelle Lösungen:\n\n\n\n| Problem | Lösung |\n| ----- | ----- |\n| „MCP server not found\" | Prüfen, ob die Datei `mcp.json` am richtigen Ort liegt und korrekt formatiert ist |\n| „Authentication failed\" | OAuth-Zugangsdaten und Scopes in Atlassian überprüfen |\n| „No Jira tools available\" | VS Code nach dem Aktualisieren von `mcp.json` neu starten und MCP in GitLab aktivieren |\n| „Connection timeout\" | Netzwerkverbindung zu `mcp.atlassian.com` prüfen |\n\n\u003Cbr/>\nDetaillierte Informationen zur Fehlerbehebung: [GitLab MCP-Clients-Dokumentation](https://docs.gitlab.com/user/gitlab_duo/model_context_protocol/mcp_clients/).\n\n\n\n## Sicherheitshinweise\n\n\n\nBei der Integration von Jira mit dem GitLab Duo Agent Platform:\n\n\n\n* **OAuth-Token** — Zugangsdaten sicher aufbewahren\n\n* **Prinzip der minimalen Rechtevergabe** — Nur die minimal erforderlichen Jira-Scopes vergeben\n\n* **Token-Rotation** — OAuth-Zugangsdaten regelmäßig rotieren\n\n\n\n## Zusammenfassung\n\n\n\nDie Anbindung des GitLab Duo Agent Platform an verschiedene Tools über MCP verändert die Interaktion mit dem Entwicklungslebenszyklus. In diesem Artikel wurde gezeigt:\n\n\n\n* **Issues per natürlicher Sprache abfragen** — Fragen zum Backlog, zu Sprints und Incidents in natürlicher Sprache stellen.\n\n* **Issues in der gesamten DevSecOps-Umgebung erstellen und aktualisieren** — Bugs melden und Tickets aktualisieren, ohne die IDE zu verlassen.\n\n* **Systemübergreifend korrelieren** — Jira-Daten mit GitLab Project Management, Merge Requests und Pipelines für vollständige Transparenz kombinieren.\n\n* **Kontextwechsel reduzieren** — Fokus auf den Code behalten und gleichzeitig mit dem Projektmanagement verbunden bleiben.\n\n\n\n## Für deutsche Unternehmen könnte dies folgende Themen betreffen\n\n\n\nTeams, die externe Tools über MCP einbinden, haben möglicherweise auch Governance- und Sicherheitsüberlegungen – beispielsweise in Bereichen wie Zugriffskontrolle, Token-Management und Audit-Nachvollziehbarkeit.\n\n\n\nRegulatorische Frameworks wie NIS2, ISO 27001 und DSGVO adressieren ähnliche Themen rund um Zugriffssteuerung und Protokollierung. Für konkrete Compliance-Anforderungen empfiehlt sich Rücksprache mit entsprechender Fachberatung.\n\n\n\n## Weiterführende Informationen\n\n\n\n* [GitLab Duo Agent Platform unterstützt jetzt das Model Context Protocol](https://about.gitlab.com/de-de/blog/duo-agent-platform-with-mcp/)\n\n\n\n* [Was ist das Model Context Protocol?](https://about.gitlab.com/topics/ai/model-context-protocol/)\n\n\n\n* [Leitfäden und Ressourcen für Agentic AI](https://about.gitlab.com/de-de/blog/agentic-ai-guides-and-resources/)\n\n\n\n* [Dokumentation zu GitLab-MCP-Clients](https://docs.gitlab.com/user/gitlab_duo/model_context_protocol/mcp_clients/)\n\n\n\n* [Erste Schritte mit der GitLab Duo Agent Platform: Der vollständige Leitfaden](https://about.gitlab.com/de-de/blog/gitlab-duo-agent-platform-complete-getting-started-guide/)",{"featured":11,"template":12,"slug":697},"extend-gitlab-duo-agent-platform-connect-any-tool-with-mcp",{"content":699,"config":709},{"title":700,"description":701,"authors":702,"heroImage":704,"date":705,"body":706,"category":9,"tags":707},"10 KI-Prompts für den gesamten Software-Delivery-Prozess","Code Review, Security, Dokumentation, Tests, Planung, Debugging – einsatzbereite Prompts, die Team-Engpässe systematisch adressieren.",[703],"Chandler Gibbons","https://res.cloudinary.com/about-gitlab-com/image/upload/v1772632341/duj8vaznbhtyxxhodb17.png","2026-03-04","KI-gestützte Coding-Tools helfen Entwicklerinnen und Entwicklern, Code schneller zu schreiben. Warum liefern Teams trotzdem nicht schneller?\nWeil Coding nur 20 % des Software-Delivery-Lifecycles ausmacht. Die restlichen 80 % werden zum Engpass: Code-Review-Rückstände wachsen, Security-Scans halten nicht Schritt, Dokumentation bleibt liegen, und manueller Koordinationsaufwand steigt.\nDieselben KI-Fähigkeiten, die das individuelle Coding beschleunigen, lassen sich auf den gesamten Softwarelebenszyklus ausdehnen – von der Planung über Code-Review und Security bis hin zu Tests und Debugging. Nachfolgend finden sich 10 einsatzbereite Prompts aus der [GitLab Duo Agent Platform Prompt Library](https://about.gitlab.com/gitlab-duo/prompt-library/), die typische Team-Engpässe systematisch adressieren.\n\n## Wie wird Code Review vom Engpass zum Beschleuniger?\nTeams erstellen Merge Requests schneller, wenn KI beim Coding unterstützt – doch menschliche Reviewer können kaum mithalten, wenn Review-Zyklen von Stunden auf Tage anwachsen. KI übernimmt Routineprüfungen wie logische Fehler und API-Vertragsverletzungen, damit Reviewer sich auf Architektur und Geschäftslogik konzentrieren können.\n\n### MR auf logische Fehler prüfen\n**Komplexität**: Einstieg\n**Kategorie**: Code Review\n**Prompt aus der Bibliothek**:\n\n```text\n\nReview this MR for logical errors, edge cases, and potential bugs: [MR URL or paste code]\n\n```\n**Warum das hilft**: Automatische Linter erkennen Syntaxfehler – logische Fehler erfordern das Verständnis der Absicht hinter dem Code. Dieser Prompt findet Bugs, bevor Reviewer überhaupt einen Blick darauf werfen, und reduziert Review-Zyklen häufig auf eine einzige Freigaberunde.\n\n### Breaking Changes im MR identifizieren\n**Komplexität**: Einstieg\n**Kategorie**: Code Review\n**Prompt aus der Bibliothek**:\n\n```text\n\nDoes this MR introduce any breaking changes?\n\nChanges:\n\n[PASTE CODE DIFF]\n\nCheck for:\n\n1. API signature changes\n\n2. Removed or renamed public methods\n\n3. Changed return types\n\n4. Modified database schemas\n\n5. Breaking configuration changes\n\n```\n**Warum das hilft**: Breaking Changes, die erst beim Deployment auffallen, erzwingen Rollbacks und verursachen Incidents. Dieser Prompt verlagert die Erkennung in die MR-Phase – wo Korrekturen deutlich weniger aufwändig sind.\n\n## Wie lässt sich Security nach links verschieben, ohne den Prozess zu verlangsamen?\nSecurity-Scans erzeugen Hunderte von Befunden. Security-Teams triagieren manuell, während Entwicklerinnen und Entwickler auf Deployment-Freigaben warten. Der Großteil der Befunde sind False Positives oder Niedrigrisiko-Probleme – die tatsächlichen Bedrohungen herauszufiltern kostet Zeit und Expertise. KI priorisiert Befunde nach tatsächlicher Ausnutzbarkeit und unterstützt bei der Behebung häufiger Schwachstellen, sodass Security-Teams sich auf die relevanten Bedrohungen konzentrieren können.\n\n### Security-Scan-Ergebnisse analysieren\n**Komplexität**: Fortgeschritten\n**Kategorie**: Security\n**Agent**: Duo Security Analyst\n**Prompt aus der Bibliothek**:\n\n```text\n\n@security_analyst Analyze these security scan results:\n\n[PASTE SCAN OUTPUT]\n\nFor each finding:\n\n1. Assess real risk vs false positive\n\n2. Explain the vulnerability\n\n3. Suggest remediation\n\n4. Prioritize by severity\n\n```\n**Warum das hilft**: Dieser Prompt hilft Security-Teams, sich auf die Befunde zu konzentrieren, die tatsächlich relevant sind – und reduziert die Zeit bis zur Behebung von Wochen auf Tage.\n\n### Code auf Sicherheitsprobleme prüfen\n**Komplexität**: Fortgeschritten\n**Kategorie**: Security\n**Agent**: Duo Security Analyst\n**Prompt aus der Bibliothek**:\n\n```text\n\n@security_analyst Review this code for security issues:\n\n[PASTE CODE]\n\nCheck for:\n\n1. Injection vulnerabilities\n\n2. Authentication/authorization flaws\n\n3. Data exposure risks\n\n4. Insecure dependencies\n\n5. Cryptographic issues\n\n```\n**Warum das hilft**: Herkömmliche Security-Reviews finden statt, nachdem Code geschrieben wurde. Dieser Prompt ermöglicht es, Sicherheitsprobleme vor dem Erstellen eines MR zu erkennen und zu beheben – und eliminiert die Abstimmungsschleifen, die Deployments verzögern.\n\n## Wie bleibt Dokumentation mit dem Code auf dem neuesten Stand?\nCode ändert sich schneller als Dokumentation. Neue Teammitglieder benötigen Wochen für das Onboarding, weil Docs veraltet oder unvollständig sind. Dokumentation wird stets als wichtig erkannt, aber bei Deadlines zuerst verschoben. Automatisierte Generierung und Aktualisierung als Teil des Standard-Workflows hält Docs aktuell – ohne zusätzlichen Aufwand.\n\n### Release Notes aus MRs generieren\n**Komplexität**: Einstieg\n**Kategorie**: Dokumentation\n**Prompt aus der Bibliothek**:\n\n```text\n\nGenerate release notes for these merged MRs:\n\n[LIST MR URLs or paste titles]\n\nGroup by:\n\n1. New features\n\n2. Bug fixes\n\n3. Performance improvements\n\n4. Breaking changes\n\n5. Deprecations\n\n```\n**Warum das hilft**: Die manuelle Zusammenstellung von Release Notes dauert Stunden und enthält häufig Lücken oder Fehler. Automatisierte Generierung stellt sicher, dass jedes Release vollständige Notes erhält – ohne zusätzlichen Aufwand im Release-Prozess.\n\n### Dokumentation nach Code-Änderungen aktualisieren\n**Komplexität**: Einstieg\n**Kategorie**: Dokumentation\n**Prompt aus der Bibliothek**:\n\n```text\n\nI changed this code:\n\n[PASTE CODE CHANGES]\n\nWhat documentation needs updating? Check:\n\n1. README files\n\n2. API documentation\n\n3. Architecture diagrams\n\n4. Onboarding guides\n\n```\n**Warum das hilft**: Dokumentation driftet, weil Teams nach Code-Änderungen nicht immer im Blick haben, welche Docs betroffen sind. Dieser Prompt macht Dokumentationspflege zum Teil des Entwicklungsworkflows – statt einer Aufgabe, die aufgeschoben wird.\n\n## Wie lässt sich Planungskomplexität systematisch aufbrechen?\nGroße Features bleiben in der Planungsphase stecken. KI kann komplexe Arbeit strukturiert in konkrete, umsetzbare Aufgaben mit klaren Abhängigkeiten und Akzeptanzkriterien zerlegen – und so wochenlange Abstimmung in fokussierte Implementierung verwandeln.\n\n### Epic in Issues aufteilen\n**Komplexität**: Fortgeschritten\n**Kategorie**: Dokumentation\n**Agent**: Duo Planner\n**Prompt aus der Bibliothek**:\n\n```text\n\nBreak down this epic into implementable issues:\n\n[EPIC DESCRIPTION]\n\nConsider:\n\n1. Technical dependencies\n\n2. Reasonable issue sizes\n\n3. Clear acceptance criteria\n\n4. Logical implementation order\n\n```\n**Warum das hilft**: Dieser Prompt verwandelt eine Woche Planungsmeetings in 30 Minuten KI-gestützte Zerlegung – gefolgt von einer Teamabstimmung. Teams starten früher mit der Implementierung und mit klarerer Ausrichtung.\n\n## Wie lässt sich Testabdeckung ausbauen, ohne den Aufwand zu erhöhen?\nEntwicklerinnen und Entwickler schreiben Code schneller, aber wenn Tests nicht mithalten, sinkt die Testabdeckung und Fehler gelangen in die Produktion. Tests manuell zu schreiben ist aufwändig – und unter Zeitdruck werden Randfälle übersehen. Automatisch generierte Tests bedeuten: prüfen und anpassen statt von Grund auf neu schreiben.\n\n### Unit-Tests generieren\n**Komplexität**: Einstieg\n**Kategorie**: Testing\n**Prompt aus der Bibliothek**:\n\n```text\n\nGenerate unit tests for this function:\n\n[PASTE FUNCTION]\n\nInclude tests for:\n\n1. Happy path\n\n2. Edge cases\n\n3. Error conditions\n\n4. Boundary values\n\n5. Invalid inputs\n\n```\n**Warum das hilft**: Manuelle Tests sind aufwändig, und Randfälle werden unter Zeitdruck oft übersehen. Dieser Prompt generiert umfassende Test-Suites, die Entwicklerinnen und Entwickler prüfen und anpassen – statt von Grund auf zu schreiben.\n\n### Lücken in der Testabdeckung erkennen\n**Komplexität**: Einstieg\n**Kategorie**: Testing\n**Prompt aus der Bibliothek**:\n\n```text\n\nAnalyze test coverage for [MODULE/COMPONENT]:\n\nCurrent coverage: [PERCENTAGE]\n\nIdentify:\n\n1. Untested functions/methods\n\n2. Uncovered edge cases\n\n3. Missing error scenario tests\n\n4. Integration points without tests\n\n5. Priority areas to test next\n\n```\n**Warum das hilft**: Dieser Prompt zeigt blinde Flecken in der Test-Suite auf, bevor sie zu Production-Incidents werden. Teams können die Abdeckung dort systematisch verbessern, wo es am meisten zählt.\n\n## Wie lässt sich die Zeit bis zur Fehlerbehebung verkürzen?\nProduction-Incidents dauern Stunden in der Diagnose. Entwicklerinnen und Entwickler durchsuchen Logs und Stack Traces, während Nutzerinnen und Nutzer Ausfälle erleben. KI beschleunigt die Ursachenanalyse durch Auswertung komplexer Fehlermeldungen und konkrete Lösungsvorschläge – und verkürzt die Diagnosezeit von Stunden auf Minuten.\n\n### Fehlerhafte Pipeline debuggen\n**Komplexität**: Einstieg\n**Kategorie**: Debugging\n**Prompt aus der Bibliothek**:\n\n```text\n\nThis pipeline is failing:\n\nJob: [JOB NAME]\n\nStage: [STAGE]\n\nError: [PASTE ERROR MESSAGE/LOG]\n\nHelp me:\n\n1. Identify the root cause\n\n2. Suggest a fix\n\n3. Explain why it started failing\n\n4. Prevent similar issues\n\n```\n**Warum das hilft**: CI/CD-Ausfälle blockieren das gesamte Team. Dieser Prompt analysiert Fehler in Sekunden statt in den 15 bis 30 Minuten, die Entwicklerinnen und Entwickler typischerweise für die Fehlersuche benötigen.\n\n## Von individuellen Gewinnen zu echter Team-Beschleunigung\nDiese Prompts stehen für einen Ansatz, der KI nicht nur beim individuellen Coding einsetzt, sondern an den Stellen, die Team-Velocity tatsächlich begrenzen: Koordination, Qualitätssicherung und Wissenstransfer.\nDie [vollständige Prompt-Bibliothek](https://about.gitlab.com/gitlab-duo/prompt-library/) enthält mehr als 100 Prompts für alle Phasen des Softwarelebenszyklus – von Planung und Entwicklung über Security und Testing bis hin zu Deployment und Betrieb. Jeder Prompt ist nach Komplexitätsstufe (Einstieg, Fortgeschritten, Experte) und Anwendungsfall kategorisiert.\nMit Prompts der Stufe „Einstieg\" lässt sich am dringendsten Engpass beginnen. Ziel ist nicht schnelleres Coding allein – sondern zuverlässigere, qualitativ hochwertigere Software-Lieferung von der Planung bis zur Produktion.",[22,708],"DevOps platform",{"featured":11,"template":12,"slug":710},"10-ai-prompts-to-speed-your-teams-software-delivery",{"promotions":712},[713,726,738,750],{"id":714,"categories":715,"header":716,"text":717,"button":718,"image":723},"ai-modernization",[9],"Is AI achieving its promise at scale?","Quiz will take 5 minutes or less",{"text":719,"config":720},"Get your AI maturity score",{"href":721,"dataGaName":722,"dataGaLocation":240},"/assessments/ai-modernization-assessment/","modernization assessment",{"config":724},{"src":725},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/qix0m7kwnd8x2fh1zq49.png",{"id":727,"categories":728,"header":730,"text":717,"button":731,"image":735},"devops-modernization",[682,729],"devsecops","Are you just managing tools or shipping innovation?",{"text":732,"config":733},"Get your DevOps maturity score",{"href":734,"dataGaName":722,"dataGaLocation":240},"/assessments/devops-modernization-assessment/",{"config":736},{"src":737},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138785/eg818fmakweyuznttgid.png",{"id":739,"categories":740,"header":742,"text":717,"button":743,"image":747},"security-modernization",[741],"security","Are you trading speed for security?",{"text":744,"config":745},"Get your security maturity score",{"href":746,"dataGaName":722,"dataGaLocation":240},"/assessments/security-modernization-assessment/",{"config":748},{"src":749},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/p4pbqd9nnjejg5ds6mdk.png",{"id":751,"paths":752,"header":755,"text":756,"button":757,"image":762},"github-azure-migration",[753,754],"migration-from-azure-devops-to-gitlab","integrating-azure-devops-scm-and-gitlab","Is your team ready for GitHub's Azure move?","GitHub is already rebuilding around Azure. Find out what it means for you.",{"text":758,"config":759},"See how GitLab compares to GitHub",{"href":760,"dataGaName":761,"dataGaLocation":240},"/compare/gitlab-vs-github/github-azure-migration/","github azure migration",{"config":763},{"src":737},{"header":765,"blurb":766,"button":767,"secondaryButton":772},"Beginne noch heute, schneller zu entwickeln","Entdecke, was dein Team mit der intelligenten Orchestrierungsplattform für DevSecOps erreichen kann.\n",{"text":768,"config":769},"Kostenlosen Test starten",{"href":770,"dataGaName":46,"dataGaLocation":771},"https://gitlab.com/-/trial_registrations/new?glm_content=default-saas-trial&glm_source=about.gitlab.com/de-de/","feature",{"text":48,"config":773},{"href":50,"dataGaName":51,"dataGaLocation":771},1776449937273]