Blog (custom content)

Nachhaltigkeit und Datensouveränität durch Kubernetes – mit und ohne Cloud

<b>NEWS 02/2025</b><br><br>Kubernetes ist eine Open-Source-Plattform, die Container effizient orchestriert, indem sie die Verwaltung, Skalierung und das Monitoring von Anwendungen auf einer gemeinsam genutzten Plattform automatisiert. Das ermöglicht nachhaltige Softwareentwicklung und IT-Betrieb bei gleichzeitig hohem Datenschutz und Datensouveränität.

07/23/25
Cloud, Nachhaltigkeit, Software
Nachhaltigkeit und Datensouveränität durch Kubernetes – mit und ohne Cloud

Autor: Marco Sieber

Kubernetes als Plattform für Produktion und Entwicklung

Die Open-Source-Plattform Kubernetes orchestriert Container effizient, indem es die Verwaltung, Skalierung und das Monitoring von Anwendungen auf einer gemeinsam genutzten Plattform automatisiert.

Container sind Laufzeitumgebungen, die sich besser als bisherige Varianten vorhandene Ressourcen teilen und zusammen nutzen. Dadurch können komplexe Softwaresysteme – aufgeteilt in einzelne Eigen- und Fremdanteile und verpackt in Container – sicher und ressourcenschonend betrieben werden.

So können „Product as a Service“ (PaaS) sowie „Software as a Service“ (SaaS) vergleichsweise einfach umgesetzt und jederzeit durch bereits vorhandene oder andere Softwareanteile ergänzt und erweitert werden. Dabei kann die Art der Infrastruktur durch Einsatz von passender Software beziehungsweise Tools sowohl zwischen kompletten Rechenzentren als auch einem einzelnen Laptop variieren.

Nachhaltigkeit als Qualitätsanspruch und non-functional Requirements

In Zeiten steigender Energiepreise und hoher Umweltschutzziele rücken die Themen nachhaltige Softwareentwicklung und IT-Betrieb zunehmend in den Fokus vieler Unternehmen. Der Druck, ihre auf IT-Nutzung zurückzuführenden CO₂-Emissionen zu senken, steigt. Auch die EU gibt ambitionierte Ziele vor, unter anderem eine CO₂- Emissionsreduzierung um 55 % bis 2030. Um diese Ziele zu erreichen, formulieren viele Kunden non-functional Requirements (nichtfunktionale Anforderungen) an die von ihnen eingesetzte Software.

Vor diesem Hintergrund gewinnen Projekte mit lokalem Kubernetes-Einsatz an Bedeutung: Containerbasierte Umgebungen können den Ressourcenverbrauch optimieren und zugleich sensible Daten im lokalen, gesicherten Kontext halten.

Energieeinsparungen durch lokale Entwicklung

Einer der größten Umweltfaktoren in der IT sind die riesigen Rechenzentren großer Cloud-Anbieter, die enorme Mengen an Energie verbrauchen: Weltweit macht der Cloud-Computing-Bereich über 2 % des Stromverbrauchs aus und übertrifft damit bereits die gesamte Flugindustrie.

Ein einziges großes Rechenzentrum kann so viel Strom verbrauchen wie rund 50.000 Haushalte, wobei geschätzte 88 % dieser Energie allein auf Kühlung und Redundanz entfallen. Im Vergleich dazu reicht die Watt-Leistung eines modernen Laptops oft in den zweistelligen bis maximal niedrigen dreistelligen Bereich.

Durch lokalen Kubernetes-Einsatz lassen sich diese Unterschiede vorteilhaft nutzen: Entwickler starten ihre Cluster nur während der Arbeitszeiten und fahren sie danach wieder herunter.

Automatismen in Kubernetes sorgen dafür, dass Test- und Entwicklungscluster genau den erforderlichen Workload abbilden – statt permanent auf voller Kapazität zu laufen. So kann Leerlaufverbrauch in lokalen Umgebungen verhindert werden.

Auch kleine Teams gewinnen dadurch viel: Selbst bei wenigen Entwicklern können dauerhafte Tests in der Cloud enorme Ressourcen binden, während ein lokaler Microcluster mit einem Bruchteil der Energie betrieben werden kann.

Darüber hinaus ermöglicht Kubernetes das Scale-to-zero-Prinzip. Das heißt, Anwendungen können automatisch

auf null Instanzen heruntergefahren werden, wenn gerade keine Nutzung stattfindet. Dies funktioniert mit denselben Mechanismen bei allen Hyperscalern. Bei Millionen von Containern in großen Umgebungen summieren sich auf diese Weise selbst kleine Einsparungen zu einem beachtlichen Effekt.

In lokalen Entwicklungsprozessen können dadurch Zeiten der aktiven Prozessornutzung, in denen Container nicht benötigt werden, effektiv eliminiert werden. Insgesamt betrachtet, führt der Einsatz von Kubernetes damit zu einem effizienteren Rechnen, da niemals Ressourcen ungenutzt bereitgestellt werden.

Energievergleich: Cloud vs. lokale Entwicklung

Typische cloudbasierte Entwicklungsumgebungen (wie zum Beispiel AWS Cloud9, Azure DevOps oder GitHub Codespaces) bieten Vorteile, wie unmittelbare Skalierbarkeit, globale Verfügbarkeit und einen hohen Automatisierungsgrad.

Durch die Konsolidierung in energieoptimierten Rechenzentren können sie in manchen Fällen sehr effizient sein. Eine Microsoft-/WSP-Studie ermittelte, dass Cloud-Infrastrukturen den Energieverbrauch, verglichen mit herkömmlichen Unternehmensrechenzentren, um bis zu 93 % senken können. Diese Werte gelten allerdings nur für ständig ausgelastete, großskalige Dienste.

Im Entwicklungsfall sieht die Sache anders aus: Lokale Workflows vermeiden dauerhafte Datenübertragung und mitlaufende Clouds und nutzen meist bereits vorhandene Hardware (Notebooks, Server). Das senkt neben der Laufzeitenergie auch die Netzwerklast.

Während Cloud-Anbieter zwar ihrerseits in erneuerbare Energien investieren, besteht in vielen Regionen noch ein hoher Anteil fossiler Stromproduktion. Ein lokal genutztes Notebook kann dagegen auch mit Strom aus alternativen Energieressourcen betrieben und geladen werden. Insgesamt können somit bei der lokalen Entwicklung noch weniger physische Ressourcen verbraucht und mehr nachhaltige Energiequellen eigenverantwortlich einbezogen werden.

Datenschutz und Datensouveränität

Ein zusätzlicher, entscheidender Pluspunkt lokaler Entwicklungsumgebungen ist der Schutz sensibler Daten. Bei der lokalen Entwicklung bleiben Quellcode und Daten intern, ohne die Infrastruktur externer Anbieter zu nutzen. Das hat gerade für europäische Unternehmen große Bedeutung, denn US-Cloudanbieter unterliegen dem US CLOUD Act, der amerikanischen Behörden Zugriff auf dort gelagerte Daten erlaubt.

Praktisch bedeutet dies, dass jegliche Daten in US-Clouds grundsätzlich für amerikanische Behörden einsehbar sind – ein klares Spannungsverhältnis zur DSGVO und zu den Ansichten des EUGH. Aktuell ist der Zugriff (noch) durch das „Transatlantic Data Privacy Framework“ (TADPF) an weitere Regularien gebunden. Diese können aber jederzeit von der US-Administration widerrufen werden.

Lokale Infrastruktur bewahrt dagegen die Datenhoheit im Unternehmen. So können Firmen sicherstellen, dass Kundendaten, Geschäftsgeheimnisse und personenbezogene Informationen niemals außerhalb des eigenen Sicherheitsperimeters liegen.

Open-Source-Plattformen wie Kubernetes unterstützen diesen Ansatz: Da Quellcode und Konfigurationen offen sind, lassen sich Backdoors oder unerwünschte Datenflüsse nahezu ausschließen. Das Vermeiden von Anbieterbindung (Vendor-Lock-In) und festen Cloud-Services stärkt zudem die Autonomie. IT-Entscheider können Kubernetes-Umgebungen mit eigener Hardware betreiben oder europäische Cloud-Provider nutzen. Dadurch entstehen deutlich geringere Risiken durch proprietäre Dienste der Hyperscaler.

Auf diese Weise können Datenschutzrichtlinien besonders komfortabel erfüllt und Abhängigkeiten von US-Giganten reduziert werden – ein Aspekt, der in EU-Unternehmen immer wichtiger wird.

Diese Eigenschaften ermöglichen es, Entwicklungs- und Test-Container idealerweise nur bei konkretem Bedarf laufen zu lassen beziehungsweise zu starten. Nach der Entwicklung können diese Kubernetes-Umgebungen vollständig heruntergefahren oder entfernt werden. So entstehen keine dauerhaften „Stromfresser“ auf den vorhandenen Ressourcen. Insgesamt führt das zu geringeren Leerlauf- Ressourcen und einer besseren Planbarkeit des Bedarfs – beides wichtige Faktoren für Ressourcenschonung.

Lokale Kubernetes-Entwicklung bietet volle Kontrolle über Daten und Energieverbrauch. Ressourcen werden nur bei Bedarf aktiviert, was insbesondere bei sporadischen Entwicklungs- und Testphasen umweltfreundlich ist.

Cloud-Entwicklung hingegen punktet mit Elastizität und Ausfallsicherheit, kann aber durch den Dauerbetrieb großer Infrastruktur zu einem größeren ökologischen Fußabdruck beitragen.

IT-Entscheider müssen abwägen: Lokale Kubernetes-Cluster sind besonders geeignet, wenn Datenschutz, Datensouveränität und effektive Ressourcennutzung Priorität haben; Cloud-Entwicklung lohnt sich bei hohem Bedarf an Rechenleistung und globaler Verfügbarkeit.

Eine Umfrage bestätigt den Trend zu Containern: 41 % der Firmen setzen sie schon in der Produktion ein, 33 % in Entwicklungs- und Testumgebungen.

Experten sehen gerade beim Entwickeln, Testen und Betreiben großer Softwareeinheiten mit Kubernetes eine Chance für Green IT: Kubernetes-Cluster können dynamisch erschaffen und wieder zerstört werden, statt dauerhaft weiterzulaufen. In vielen Unternehmen, insbesondere im Finanzsektor, entstehen bereits lokale Kubernetes-Umgebungen auf Firmennetzwerkservern, um beide Aspekte – Effizienz und Compliance – optimal zu bedienen.

Fazit

Kubernetes kann lokal für Entwicklernotebooks oder eigene Server eingesetzt werden, um Softwareentwicklung nachhaltiger zu gestalten. Durch Containerisierung und orchestrierte Skalierung lassen sich Ressourcen intelligent nutzen und lässt sich Leerlauf eliminieren.

Gleichzeitig wird die Datensicherheit erhöht, da sensible Informationen im eigenen Verantwortungsbereich bleiben. Im Vergleich zu typischen Cloud-Entwicklungsumgebungen erspart dies konstante Cloud-Ressourcen und externe Datenübertragung.

Insgesamt bedeutet dies eine Win-win-Situation: geringere Energiekosten und CO₂-Emissionen sowie weniger Risiko durch Datenschutzverletzungen. Vor diesem Hintergrund empfehlen wir, lokale Kubernetes-Workflows dort einzusetzen, wo sie mit den Unternehmenszielen zu Nachhaltigkeit und DSGVO-Konformität harmonieren.

Autor

Marco Sieber

verfügt über langjährige Berufserfahrung und ist bei msg for banking als Senior IT Consultant im Bereich Architecture und Development tätig. Dabei deckt er ein breitgefächertes Themengebiet ab – von Softwareentwicklung in agilen Full-Stack-Anwendungen über Cloudprojekte und Qualitätssicherung in Software, sowie die Orchestrierung von komplexen Enterprise-IT-Architekturen.

Ansprechpartner