Forschung

Code-Review Benchmarks: PR Cycle Time, DORA-Impact und Daten zu KI-gestützten Reviews

Elite-Teams reviewen PRs in unter 3 Stunden; das untere Quartil braucht 24+ Stunden

Überblick

Code Review ist der Punkt, an dem Delivery-Geschwindigkeit stirbt. Entwickler verbringen 10-20% ihrer Arbeitszeit mit Code Reviews (Springer 2025), und Teams im unteren Quartil lassen PRs 24+ Stunden auf ein erstes Review warten. Der Unterschied zwischen Elite- und schwachen Teams ist nicht das Tooling. Es sind Prozessdisziplin, PR-Größe und Review-Pickup-Zeit.

Wichtige Erkenntnisse

PR Cycle Time Benchmarks

LinearB hat 8,1 Millionen PRs aus 4.800 Engineering-Teams analysiert (2026 Engineering Benchmarks Report) und die Cycle Time in vier Phasen aufgeteilt: Coding, Pickup, Review und Deploy. Die Unterschiede zwischen den Performance-Stufen sind enorm.

MetrikElite (Top 25%)GutMittelHandlungsbedarf (Unteres 25%)
PR Cycle Time<25 Stunden25-72 Stunden73-161 Stunden>161 Stunden
Review Time<3 Stunden3-14 Stunden15-24 Stunden>24 Stunden
Pickup Time<1 Stunde1-4 Stunden5-16 Stunden>16 Stunden
PR-Größe (Zeilen)<219 Durchschn.219-395 Durchschn.395-793 Durchschn.>793 Durchschn.
Rework-Rate<2%2-4%4-7%>7%

Der größte einzelne Hebel: PR-Größe. Teams, die PRs unter 200 Zeilen liefern, erreichen <2% Rework-Raten. Teams mit PRs über 793 Zeilen sehen Rework über 7% und Change Failure Rates über 17% (LinearB 2026).

DORA Performance-Stufen und Lead Time

Der DORA 2024 Accelerate State of DevOps Report (Google Cloud) clustert Teams in vier Performance-Stufen basierend auf Throughput und Stabilität:

MetrikEliteHighMediumLow
Lead Time for Changes<1 Tag1 Tag - 1 Woche1 Woche - 1 Monat1-6 Monate
Deployment FrequencyMehrfach/TagTäglich bis wöchentlichWöchentlich bis monatlichMonatlich bis halbjährlich
Change Failure Rate18-20%~20%~10%~40%
MTTR<1 Stunde<1 Tag<1 Tag1 Woche - 1 Monat

Elite-Teams erreichen <1 Tag Lead Time. Low Performer brauchen 1-6 Monate. Das ist eine 100x+ Lücke. Code Review ist Teil der Lead Time: Jede Stunde, die ein PR auf Pickup wartet, bläht diese Metrik direkt auf.

Wo die Review-Zeit hingeht

  • Pickup Time ist der stille Killer. Teams im unteren Quartil warten 16+ Stunden, bevor ein Reviewer den PR überhaupt ansieht (LinearB 2026). Elite-Teams reagieren innerhalb 1 Stunde.
  • Prozess-Handoffs (einschließlich Reviews und Testing) reduzieren den Deployment-Throughput um ~8% pro Handoff durch zusätzliche Latenz (DORA 2024).
  • Entwickler verbringen 10-20% ihrer Arbeitszeit mit Code Reviews weltweit über 28 Mio.+ Entwickler (Springer/Empirical Software Engineering 2025). Das sind 4-8 Stunden pro Woche für einen typischen Ingenieur.

KI-gestütztes Code Review: Die echten Daten

KI-Review-Tools zeigen starke Verbesserungen pro PR, erzeugen aber organisatorische Herausforderungen bei ungesteuerter Adoption.

Verbesserungen pro PR (kontrollierte Studien):

Tool / StudieMetrikVorherNachherVeränderung
Cursor Bugbot (25-Entwickler E-Commerce-Team, Q4 2024)Review Time18 Stunden4 Stunden-78%
Cursor BugbotProduction BugsBaseline--62%
DeputyDev (arXiv-Studie, Sept. 2024-Aug. 2025)PR Cycle Time150,5 Stunden99,6 Stunden-31,8%
DeputyDevReview Time128,8 Stunden90,5 Stunden-29,8%
CodeRabbit (DORA 2025 Sponsor-Daten)PR Merge SpeedBaseline--50%

Organisatorische Auswirkungen (DORA 2025, ~5.000 Entwickler):

  • Individueller Output: +21% erledigte Tasks, +98% mehr gemergte PRs
  • Aber: Review Time +91%, PR-Größen +154%, Bug-Raten +9%
  • Nettoergebnis: 75% der Organisationen sehen keine Delivery-Verbesserung auf Team-Ebene
  • KI verstärkt bestehende Team-Muster. High Performer gewinnen. Low Performer verschlechtern sich.

Adoption und Zufriedenheit

  • 91-95% der Entwickler nutzen jetzt KI-Coding-Tools (DX.ai Q4 2025: 91% bei 85.000 Devs; DORA 2025: 95%)
  • 14,9% der PRs (1 von 7) involvieren KI-Agenten, 3,7x Anstieg in 2025 (Pullflow State of AI Code Review 2025)
  • 72,6% der GitHub-Nutzer sagen, Copilot Code Review verbessert ihre Effektivität (GitHub Octoverse 2025)
  • 85% zufrieden mit KI-Review in kontrollierten Rollouts; 93% wollen weitermachen (DeputyDev-Studie 2025)
  • Tägliche KI-Nutzer liefern 60% mehr PRs pro Woche: 2,3 PRs vs. 1,4 bei Nicht-Nutzern (DX.ai Q4 2025)
  • Vorsicht: Erfahrene Entwickler empfanden 20% Geschwindigkeitsvorteil, gemessen waren sie aber 19% langsamer in einem kontrollierten RCT (METR 2025)

Was das für Ihr Team bedeutet

  • Verkleinern Sie Ihre PRs, bevor Sie KI-Review-Tools kaufen. Teams unter 200 Zeilen pro PR erreichen Elite-Review-Zeiten (<3 Stunden) und <2% Rework. Kein Tool rettet einen 793-Zeilen-PR.
  • Messen Sie Pickup Time, nicht nur Review Time. Die Lücke zwischen Elite (<1 Stunde) und dem unteren Quartil (>16 Stunden) wird davon bestimmt, wie schnell der erste Reviewer einsteigt, nicht wie lange das Review dauert.
  • Planen Sie Budget für das KI-Volumen-Problem. KI-Tools helfen einzelnen Entwicklern, 60% mehr PRs zu liefern, aber die Review-Zeit wächst um 91% auf Org-Ebene (DORA 2025). Ohne automatisiertes Triage, Routing oder KI-gestütztes Review werden Ihre Reviewer zum Engpass.
  • Erstellen Sie eine Baseline vor dem Deployment. Tracken Sie PR Cycle Time, Pickup Time, Review Time und Rework-Rate. Ohne Vorher/Nachher haben Sie keinen Beweis, dass Ihre KI-Investition funktioniert.
  • Beobachten Sie Qualitätsmetriken neben der Geschwindigkeit. DORA 2025 fand 9% höhere Bug-Raten und 154% größere PRs bei KI-Adoption. Kombinieren Sie KI-Code-Generierung mit automatisiertem Testing und strikten PR-Größenlimits.

Quellen

  • LinearB 2026 Engineering Benchmarks Report (8,1 Mio. PRs, 4.800 Teams)
  • LinearB Community Benchmarks (3,7 Mio. PRs, 2.022 Organisationen)
  • DORA 2024 Accelerate State of DevOps Report (Google Cloud)
  • DORA 2025 State of AI-Assisted Software Development Report
  • DX.ai AI-Assisted Engineering Q4 2025 Impact Report (85.000 Entwickler)
  • Springer/Empirical Software Engineering: Code Review Time Study (2025)
  • DeputyDev: Multi-Agent AI Code Review Study (arXiv, Sept. 2024-Aug. 2025)
  • Digital Applied: AI Code Review Automation Guide (2025)
  • GitHub Octoverse 2025
  • Pullflow State of AI Code Review 2025
  • METR: AI-Assisted Development RCT (Juli 2025)
  • Faros AI: Key Takeaways from DORA 2025