Mit Kubernetes 1.35 setzt die Open-Source-Community erneut einen bedeutenden Meilenstein im Bereich Cloud-native Infrastruktur. Doch während neue Features mehr Kontrolle und Performance versprechen, bleibt die effiziente Skalierung und Orchestrierung komplexer Workloads eine anspruchsvolle Disziplin – insbesondere in produktiven Multi-Cluster-Umgebungen.
Skalierungsdynamiken in Kubernetes: Ein Überblick
Kubernetes hat sich seit seiner Einführung 2014 von Google rasant zum De-facto-Standard in der Container-Orchestrierung entwickelt. Mehr als 96 % der Unternehmen, die Container nutzen, setzen laut dem CNCF Annual Survey 2023 auf Kubernetes – ein Anstieg gegenüber 83 % im Jahr 2020.
Mit wachsenden Anforderungen an Skalierbarkeit, Resilienz und Performance stoßen Admins und Entwicklerteams jedoch zunehmend auf Limitierungen: Wie lassen sich tausende Pods orchestrieren, ohne den Scheduler zu überlasten? Welche Rolle spielen Ressourcenlimits, AutoScaler und Topologie-Affinitäten bei massiv wachsenden Deployments?
Kubernetes 1.35 zielt darauf ab, diese Herausforderungen mit gezielten Maßnahmen wie verbesserten Scheduling-Strategien, neuen LoadBalancing-Ansätzen und optimierter Controller-Resilienz zu adressieren. Die Voraussetzungen: tiefes Verständnis, präzise Architekturentscheidungen – und ein Gespür für Performance-Tuning.
Was ist neu in Kubernetes 1.35?
Das Release 1.35, veröffentlicht im Januar 2026, setzt vor allem auf eine robuste Verbesserung bestehender Skalierungsmechanismen. Besonders hervorzuheben sind drei neue Features:
- HorizontalPodAutoscaler v2 (stable): Die neue stabile Version bringt Metrics-Backends mit erweiterten APIs und ermöglicht dabei präzisere Skalierungslogik basierend auf benutzerdefinierten Metriken.
- Node Heartbeat Improvements: Verbesserte Reaktionszeit bei Node-Failures durch kürzere Heartbeat-Intervalle und differenzierte Statusauswertung.
- PodTopologySpread Enhancements: Unterstützung für weichere Constraints beim Verteilungsalgorithmus, was die Auslastung in Multi-Zone-Deployments optimiert.
Diese Weiterentwicklungen tragen direkt zur Orchestrierung großer Workload-Flotten bei. Vor allem der HorizontalPodAutoscaler v2 bietet in hybriden oder burstlastigen Umgebungen deutlich mehr Spielraum für anwendungsbezogene Skalierungspolitiken.
Skalierung in der Praxis: Probleme zwischen Theorie und Realität
Theoretisch erlaubt Kubernetes durch seine deklarative Architektur eine fast unbegrenzte Skalierung horizontaler Services. In der Realität treten jedoch typische Skalierungsprobleme auf:
- Scheduler Bottlenecks: Insbesondere bei Massen-Deployments (z. B. Batch-Computing) kann der Scheduler durch zu viele Pods überfordert werden. Mit über 10.000 Pods auf einem Cluster steigen Responsezeiten teils drastisch.
- Resource Fragmentation: Suboptimale Ressourcenverteilung – häufig durch statisch festgelegte Ressourcenlimits – führt zu unnutzbarer Kapazität auf einzelnen Nodes.
- Node Scaling Delays: In Multi-Cloud-Szenarien verzögern sich Node-Provisionierungen – besonders bei Verwendung von Cluster Autoscaler ohne vordefinierte Templates.
Mehrere Studien, darunter der Datadog Kubernetes Report 2024, zeigen, dass 62 % aller Unternehmen Skalierungsprobleme in Kubernetes-Umgebungen als ihre größte Produktivitätsbarriere einstufen.
Orchestrierung komplexer Workloads: Was wirklich zählt
Orchestrierung in Kubernetes bedeutet mehr als nur das Starten und Stoppen von Pods. Es umfasst Service Discovery, Load Balancing, Self-Healing, Update-Strategien und Netzwerkarchitektur. Bei komplexen Workloads wie ML-Trainingsjobs oder ETL-Pipelines stellt die Steuerung dieser Komponenten hohe Anforderungen:
In Kubernetes 1.35 bringt vor allem die Verbesserung des Job Controller Vorteile. Der neue Mechanismus zum Indexed Job Completion Tracking erlaubt gezieltes Wiederanfahren fehlgeschlagener Tasks, ohne den gesamten Job zu verlieren – essenziell für verteilte Rechenlasten.
Zudem wurde die Topology-Aware Scheduling API weiterentwickelt. Administratoren können nun genauer festlegen, in welchen Zonen/Tiers Workloads platziert werden – ein Zugewinn an Kontrolltiefe bei gleichzeitig besserer Clusterressourcenausnutzung.
Erfolgreiche Skalierung: Handlungsempfehlungen aus der Praxis
Basierend auf Best Practices etablierter Cloud-Provider und der Open-Source-Community empfehlen sich folgende Schritte:
- Caps auf Cluster-Größe festlegen: Überdimensionierte Cluster (>500 Nodes) sollten durch Cluster Federation oder Multi-Zone-Strategien entkoppelt werden, um Skaleneffekte zu erzielen und Verwaltung zu vereinfachen.
- Observe-first Policy implementieren: Mithilfe von Prometheus, OpenTelemetry oder Grafana Mimir proaktiv relevante Skalierungsmetriken wie CPU/Memory-Utilization, Queue Length und Scheduler-Latenz beobachten – bevor sie zum Bottleneck werden.
- Node Pools intelligent strukturieren: Unterschiedliche Pools (z. B. für High-Memory, Burstable, GPU) ermöglichen ressourcenspezifische Workload-Zuordnung und damit effizienteres Node Scaling.
Fallbeispiel: Skalierung bei einem europäischen E-Commerce-Anbieter
Der in Berlin ansässige Onlinehändler reBuy setzte 2025 auf Kubernetes 1.34 für ein clusterweites Refactoring. Bei monatlichen Traffic-Peaks von bis zu 2,1 Millionen aktiven Nutzern stießen klassische AutoScaler an Grenzen. Nach einem Upgrade auf 1.35 wurde auf Custom Metrics Autoscaling für Checkout-Services umgestellt. Dadurch ließ sich die Latenz unter 200 ms halten – und gleichzeitig die Instanzanzahl im Normalbetrieb um 28 % reduzieren (Quelle: interne Fallstudie reBuy Engineering, 2025).
Ergänzt wurde dies durch TopologySpreadConstraints, um Highload-Services über verschiedene Availability Zones zu verteilen. Dies minimierte spürbar Ausfälle bei Zonen-Degradierung in AWS.
Fazit: Grenzen verschieben, nicht ignorieren
Kubernetes 1.35 bietet gute Ansätze, um die wachsende Komplexität moderner Skalierungsszenarien besser in den Griff zu bekommen. Doch bei aller technologischen Raffinesse bleiben die klassischen Herausforderungen bestehen: Architekturdesign, Monitoring, Ressourcenmodellierung und Update-Strategie müssen ineinandergreifen.
Entscheidend ist und bleibt die Praxisnähe. Umso wichtiger ist es für DevOps- und Plattformteams, sich aktiv in die Community einzubringen, Lessons Learned offenzulegen und gemeinsam an besseren Standards für Orchestrierung und Skalierung zu arbeiten.
Welche Tools, Strategien oder Erfahrungen haben Sie mit Kubernetes 1.35 gemacht? Diskutieren Sie mit uns in den Kommentaren oder teilen Sie Ihre Erkenntnisse auf LinkedIn unter dem Hashtag #K8s135!




