Forschung

Meisterschaft in Engineering-Metriken: DORA-Benchmarks, Cycle Time und was Elite-Teams wirklich messen

Elite-Teams deployen on demand mit <1 Stunde Recovery; Low Performer brauchen 1-6 Monate pro Release

Überblick

Die meisten Engineering-Teams messen irgendetwas. Wenige messen das Richtige. Der DORA-Report 2024 befragte 39.000+ Fachleute und stellte fest, dass Elite-Performer sich 2.293x schneller von Ausfällen erholen als Low Performer. LinearB analysierte 8,1 Millionen PRs aus 4.800 Teams und fand Cycle Times von unter 25 Stunden (Elite) bis über 161 Stunden (unteres Quartil). Der Unterschied ist nicht Talent. Es ist, was man misst und wie man darauf reagiert.

Wichtige Erkenntnisse

Die vier DORA-Metriken: Benchmarks 2024

Der DORA 2024 Accelerate State of DevOps Report (Google Cloud) clustert Teams in vier Performance-Stufen. Etwa 19% qualifizieren sich als Elite, 22% als High, 35% als Medium und 25% als Low.

MetrikEliteHighMediumLow
Deployment FrequencyOn demand (mehrfach/Tag)Täglich bis wöchentlichWöchentlich bis monatlichMonatlich bis halbjährlich
Lead Time for Changes<1 Tag1 Tag - 1 Woche1 Woche - 1 Monat1-6 Monate
Change Failure Rate~5-19%~20%~10%~40%
Time to Restore (MTTR)<1 Stunde<1 Tag<1 Tag1 Woche - 1 Monat

Die Multiplikator-Lücken sind enorm: Elite-Teams sind ~127x schneller in der Lead Time, deployen ~8x häufiger und stellen den Service ~2.293x schneller wieder her als Low Performer (DORA 2024).

Cycle Time Aufschlüsselung: Wo die Stunden tatsächlich hingehen

Der LinearB 2026 Engineering Benchmarks Report zerlegt die Cycle Time (erster Commit bis Produktion) in vier Phasen. Die Daten stammen aus 8,1 Millionen PRs aus 4.800 Teams in 42 Ländern.

PhaseEliteGutMittelHandlungsbedarf
Gesamt-Cycle Time<25 Stunden25-72 Stunden73-161 Stunden>161 Stunden
Coding Time<54 Minuten54 Min. - 4 Stunden5-23 Stunden>23 Stunden
PR Pickup Time<1 Stunde1-4 Stunden5-16 Stunden>16 Stunden
Review Time<3 Stunden3-14 Stunden15-24 Stunden>24 Stunden
Deploy Time<16 Stunden16-106 Stunden107-277 Stunden>277 Stunden

Der größte einzelne Hebel: PR-Größe. Elite-Teams ändern durchschnittlich <100 Zeilen pro PR. Teams im unteren Quartil durchschnittlich >228 Zeilen. Kleine PRs führen zu schnelleren Reviews, weniger Rework und niedrigeren Change Failure Rates (LinearB 2026).

Was Engineering-Leader tatsächlich messen

Der LeadDev 2024 Engineering Team Performance Report befragte 978 Engineering-Leader zu den nützlichsten Metriken:

  • #1 Cycle Time — am höchsten bewertete Produktivitätsmetrik nach Nützlichkeit
  • #2 Lead Time for Changes — direkte Zuordnung zu DORA
  • #3 Deployment Frequency — Geschwindigkeit der Auslieferung in Produktion
  • Vermiedene Metriken: Lines of Code (70% vermeiden diese), Story Points (47% vermeiden diese), geschlossene PRs (42% vermeiden diese) — alle als manipulierbar eingestuft

42% der Leader bewerten DORA-Metriken als „sehr effektiv” oder „effektiv”, gegenüber 34% im Vorjahr. Aber ein Drittel der Leader reportet überhaupt keine Performance-Metriken (LeadDev 2024).

Qualitäts- und Effizienz-Indikatoren über DORA hinaus

MetrikEliteGutMittelHandlungsbedarf
PR-Größe (Zeilen)<100100-155156-228>228
Rework-Rate<1%1-4%5-17%>17%
Merge-Frequenz (Merges/Dev/Woche)>21,5-21-1,5<1
Change Failure Rate<1%1-4%5-17%>17%

Teams mit PRs unter 200 Zeilen erreichen <2% Rework-Raten. Teams mit PRs über 793 Zeilen sehen Rework über 7% und Change Failure Rates über 17% (LinearB 2026).

Die Metriken, die für das Business zählen

LeadDev stellte fest, dass Engineering-Leader Business-Impact-Metriken neben operativen messen:

  • Code-Qualität von 54% der Leader getrackt
  • Kundenbeschwerden von 45% getrackt
  • Team-Autonomie von 34% getrackt
  • Top strategische Metriken: Nutzerzufriedenheit, Nutzerwachstum, ROI, SLO-Einhaltung (LeadDev 2024)

Warum Teams messen: 45% zur Steigerung der Velocity (gegenüber 37% im Vorjahr), 18% zur Identifikation von Engpässen, 16% für Accountability (LeadDev 2024).

Der KI-Einfluss auf Metriken (Daten 2025)

Der DORA 2025 Report stellte fest, dass 95% der Entwickler jetzt KI-Coding-Tools nutzen, aber die organisatorischen Ergebnisse gemischt sind:

  • Individueller Output: +21% erledigte Tasks, +98% mehr gemergte PRs
  • Aber auf Org-Ebene: Review Time +91%, PR-Größen +154%, Bug-Raten +9%
  • 75% der Organisationen sehen keine Delivery-Verbesserung auf Team-Ebene (DORA 2025)
  • KI-Adopter sahen einen Rückgang der medianen Cycle Time um 24% (von 16,7 Stunden auf 12,7 Stunden) in kontrollierten Umgebungen (Jellyfish 2025)

Was das für Ihr Team bedeutet

  • Starten Sie mit Cycle Time, nicht mit allen 21 Metriken. Cycle Time ist die #1-Metrik nach Nützlichkeit unter 978 Engineering-Leadern (LeadDev 2024). Sie erfasst Coding, Review und Deploy in einer Zahl. Bringen Sie diese unter 72 Stunden, bevor Sie Komplexität hinzufügen.
  • Benchmarken Sie gegen echte Daten, nicht nach Bauchgefühl. Elite-Cycle-Time ist <25 Stunden. Wenn Ihre >161 Stunden beträgt, sind Sie im unteren Quartil von 4.800 Teams (LinearB 2026). Kennen Sie Ihre Stufe, bevor Sie Ziele setzen.
  • Beheben Sie zuerst die PR-Größe — das entsperrt alles andere. Teams unter 100 Zeilen pro PR erreichen Elite-Performance bei Cycle Time, Review Time und Rework-Rate. Kein Tooling-Investment kompensiert 793-Zeilen-PRs.
  • Hören Sie auf, Lines of Code und Story Points zu messen. 70% bzw. 47% der Engineering-Leader vermeiden diese Metriken, weil sie Output statt Outcomes incentivieren (LeadDev 2024). Messen Sie Flow, nicht Volumen.
  • Achten Sie auf die KI-Metriken-Falle. KI-Tools steigern den individuellen Output um 21-98%, blähen aber die Review Time um 91% und die PR-Größe um 154% auf Org-Ebene auf (DORA 2025). Kombinieren Sie KI-Adoption mit strikter Prozessdisziplin, sonst führen Ihre Metriken Sie in die Irre.

Quellen

  • DORA 2024 Accelerate State of DevOps Report (Google Cloud, 39.000+ kumulative Befragte)
  • DORA 2025 State of AI-Assisted Software Development Report (~5.000 Entwickler)
  • LinearB 2026 Engineering Benchmarks Report (8,1 Mio. PRs, 4.800 Teams, 42 Länder)
  • LinearB Community Benchmarks (3,7 Mio. PRs, 2.022 Organisationen)
  • LeadDev 2024 Engineering Team Performance Report (978 Engineering-Leader)
  • Jellyfish 2025 AI Metrics in Review
  • DX.ai State of Developer Experience 2024 (2.100+ Entwickler und Leader)