Why Changing Platforms or Adding a New Cloud Is Harder Than It Sounds

Why Changing Platforms or Adding a New Cloud Is Harder Than It Sounds

Switching enterprise platforms isn’t like swapping cars and more like deciding to change the side of the road you drive on while keeping all the existing roads, intersections, traffic lights, and vehicles in motion. The complexity comes from rethinking the entire system around you, from driver behaviour to road markings to the way the city is mapped.

That’s exactly what it feels like when an enterprise tries to replace a long-standing platform or add a new one to an already complex mix. On slides, it’s about agility, portability, and choice. In reality, it’s about untangling years of architectural decisions, retraining teams who have mastered the old way of working, and keeping the business running without any trouble while the shift happens.

Every enterprise carries its own technological history. Architectures have been shaped over years by the tools, budgets, and priorities available at the time, and those choices have solidified into layers of integrations, automations, operational processes, and compliance frameworks. Introducing a new platform or replacing an old one isn’t just a matter of deploying fresh infrastructure. Monitoring tools may only talk to one API. Security controls might be tightly bound to a specific identity model. Ticketing workflows could be designed entirely around the behaviour of the current environment. All of this has to be unpicked and re-stitched before a new platform can run production workloads with confidence.

The human element plays an equally large role. Operational familiarity is one of the most underestimated forms of lock-in. Teams know the details of the current environment, how it fails, and the instinctive fixes that work. Those instincts don’t transfer overnight, and the resulting learning curve can look like a productivity dip in the short term. Something most business leaders are reluctant to accept. Applications also rarely run in isolation. They rely on the timing, latency, and behaviours of the platform beneath them. A database tuned perfectly in one environment might misbehave in another because caching works differently or network latency is just a little higher. Automation scripts often carry hidden assumptions too, which only surface when they break.

Adding another cloud provider or platform to the mix can multiply complexity rather than reduce it. Each one brings its own operational model, cost reporting, security framework, and logging format. Without a unified governance approach, you risk fragmentation – silos that require separate processes, tools, and people to manage. And while the headline price per CPU or GB (or per physical core) might look attractive, the true cost includes migration effort, retraining, parallel operations, and licensing changes. All of this competes with other strategic projects for budget and attention.

Making Change Work in Practice

No migration is ever frictionless, but it doesn’t have to be chaotic. The most effective approach is to stop treating it as a single, monolithic event. Break the journey into smaller stages, each delivering its own value.

Begin with workloads that are low in business risk but high in operational impact. This category often includes development and test environments, analytics platforms processing non-sensitive data, or departmental applications that are important locally but not mission-critical for the entire enterprise. Migrating these first provides a safe but meaningful proving ground. It allows teams to validate network designs, security controls, and operational processes in the new platform without jeopardising critical systems.

Early wins in this phase build confidence, uncover integration challenges while the stakes are lower, and give leadership tangible evidence that the migration strategy is working. They also provide a baseline for performance, cost, and governance that can be refined before larger workloads move.

Build automation, governance, and security policies to be platform-agnostic from the start, using open standards, modular designs, and tooling that works across multiple environments. And invest early in people: cross-train them, create internal champions, and give them the opportunity to experiment without the pressure of immediate production deadlines. If the new environment is already familiar by the time it goes live, adoption will feel less like a disruption and more like a natural progression.

From Complex Private Clouds to a Unified Platform

Consider an enterprise running four separate private clouds: three based on VMware – two with vSphere Foundation and one with VMware Cloud Foundation including vSphere Kubernetes Services (VKS), and one running Red Hat OpenShift on bare metal. Each has its own tooling, integrations, and operational culture.

Migrating the VMware workloads to Oracle Cloud VMware Solution (OCVS) inside an OCI Dedicated Region allows workloads to be moved with vMotion or replication, without rewriting automation or retraining administrators. It’s essentially another vSphere cluster, but one that scales on demand and is hosted in facilities under your control.

OCI Dedicated Region and OCVS

The OpenShift platform can also move into the same Dedicated Region, either as a direct lift-and-shift onto OCI bare metal or VMs, or as part of a gradual transition toward OCI’s native Kubernetes service (OKE). This co-location enables VMware, OpenShift, and OCI-native workloads to run side by side, within the same security perimeter, governance model, and high-speed network. It reduces fragmentation, simplifies scaling, and allows modernisation to happen gradually instead of in a high-risk “big bang” migration.

Unifying Database Platforms

In most large enterprises, databases are distributed across multiple platforms and technologies. Some are Oracle, some are open source like PostgreSQL or MySQL, and others might be Microsoft SQL Server. Each comes with its own licensing, tooling, and operational characteristics.

An OCI Dedicated Region can consolidate all of them. Oracle databases can move to Exadata Database Service or Autonomous Database for maximum performance, scalability, and automation. Non-Oracle databases can run on OCI Compute or as managed services, benefitting from the same network, security, and governance as everything else.

This consolidation creates operational consistency with one backup strategy, one monitoring approach, one identity model across all database engines. It reduces hardware sprawl, improves utilisation, and can lower costs through programmes like Oracle Support Rewards. Just as importantly, it positions the organisation for gradual application modernization, without being forced into rushed timelines.

A Business Case Built on More Than Cost

The value in this approach comes from the ability to run new workloads, whether VM-based, containerized, or fully cloud-native, on the same infrastructure without waiting for new procurement cycles. It’s about strategic control by keeping infrastructure and data within your own facilities, under your jurisdiction, while still accessing the full capabilities of a hyperscale cloud. And it’s about flexibility. Moving VMware first, then OpenShift, then databases, and modernizing over time, with each step delivering value and building confidence for the next.

When done well, this isn’t just a platform change. It’s a simplification of the entire environment, an upgrade in capabilities, and a long-term investment in agility and control.

Swiss Government Cloud – Was macht der Cloud Service Broker und wie neutral ist er wirklich?

Swiss Government Cloud – Was macht der Cloud Service Broker und wie neutral ist er wirklich?

Hinweis: Dieser Beitrag spiegelt ausschliesslich meine persönliche Meinung und Einschätzung wider. Er basiert auf öffentlich zugänglichen Informationen sowie eigenen Analysen und Erfahrungen. Er stellt nicht die offizielle Position oder Meinung meines Arbeitgebers dar.

Früher war die interne IT beim Bund die Abteilung, die Server bestellte, installierte und betrieb. Heute ist sie Orchestrator eines hochdynamischen Ökosystems aus internen Plattformen und externen Cloud-Diensten. Private Clouds in Bundesrechenzentren, Public Clouds bei internationalen Anbietern und all das unter strengen Vorgaben für Sicherheit, Datenschutz und Souveränität.

Hinzu kommt, dass das Bundesamt für Informatik und Telekommunikation (BIT) nicht über die nötige Erfahrung und Anzahl festangestellter Spezialisten verfügt, um alle Themen wie etwa Applikationsmodernisierung oder komplexe Cloud-Migrationen eigenständig umzusetzen. Deshalb sind in vielen Bereichen externe Partner tätig, sei es in Body-Leasing-Verträgen oder als Berater in längerfristigen Mandaten. Diese Partner bringen wertvolle Expertise ein, nehmen aber zwangsläufig auch Einfluss auf die strategische Ausrichtung, die Technologieauswahl und die operativen Entscheidungen.

Das kann helfen, weil Erfahrungen aus anderen Projekten einfliessen, birgt aber auch das Risiko, dass bestimmte Präferenzen oder Lösungsansätze bevorzugt werden, noch bevor ein formaler Evaluationsprozess startet.

Die Rolle des Cloud Service Brokers

Der Bezug von Public-Cloud-Leistungen durch die Verwaltungseinheiten der Bundesverwaltung erfolgt heute über einen Cloud Service Broker (CSB). Dieser CSB ist aktuell nur für die Public-Cloud-Seite zuständig. Sobald jedoch die Swiss Government Cloud (SGC) steht, wäre es aus meiner Sicht logisch und notwendig, dass der CSB auch die Private Cloud miteinbezieht. Denn nur so kann im Rahmen der Ausschreibungen und Pflichtenhefte korrekt bewertet werden, ob ein Projekt on-premises in der Private Cloud oder in einer Public Cloud umgesetzt werden sollte. Anstatt nur innerhalb eines einzelnen Betriebsmodells zu entscheiden.

Cloud Governance_de

Quelle: https://www.bk.admin.ch/bk/de/home/digitale-transformation-ikt-lenkung/bundesarchitektur/cloud/public-clouds-bund.html 

Ein vendor-agnostischer Blick ist dabei essenziell. Es gibt bereits Plattformlösungen am Markt, die alle Stufen des Cloud-Stufenmodells, von hochsensiblen Private-Cloud-Umgebungen bis hin zu skalierbaren Public-Cloud-Regionen, innerhalb einer einheitlichen Architektur abbilden könnten. In solchen Szenarien würde das komplexe Stufenmodell der Bundesverwaltung in seiner heutigen Form weitgehend obsolet werden. Eine private (eigene, dedizierte) Public-Cloud-Region liesse sich dann direkt in den Rechenzentren des BIT betreiben, ohne Abstriche bei Souveränität oder Sicherheitsanforderungen machen zu müssen.

Vendor-Neutralität – Anspruch und Wirklichkeit

Das Konzept eines anbieterneutralen Pflichtenhefts soll sicherstellen, dass alle potenziellen Anbieter gleich behandelt werden. Im Kriterienkatalog dazu werden technische Anforderungen (Ausschlusskriterien) wie Compute, Identity und Access Management, Messaging, Resilienz, Sicherheit, Storage und DevOps definiert. Ergänzt wird dies um Zuschlagskriterien etwa zu Monitoring, Networking, Cloud-Strategie oder Migrationskosten.

Zur Erinnerung, heute sind folgende Public-Cloud-Anbieter beim Bund zugelassen:

Bund Public Cloud Gartner MQ Aug2025

Die Praxis sieht so aus: Basierend auf dem freigegebenen, signierten anbieterneutralen Pflichtenheft und dem Kriterienkatalog erstellt ein Angebotsteam für alle fünf zugelassenen Public-Cloud-Anbieter eine Konfiguration und füllt den Kriterienkatalog aus. Kann ein Anbieter ein Ausschlusskriterium nicht erfüllen, wird dies dokumentiert. Am Ende der Evaluation liegen maximal fünf dem Pflichtenheft entsprechende Angebote vor. Der Evaluationsbericht bewertet diese Angebote und begründet die Auswahl.

Kritisch wird es, wenn in der Realität trotz anbieterneutralem Verfahren am Ende doch immer dieselben zwei Cloudanbieter den Zuschlag erhalten, selbst dann, wenn ein anderer Anbieter 50% günstiger gewesen wäre. Das wirkt umso paradoxer in einer Zeit, in der viele Diskussionen über steigende Public-Cloud-Kosten geführt werden und Public Clouds oft als “zu teuer” erachtet werden.

Der Einfluss externer Partner

Externe Partner sind ein wichtiger Teil der Bundes-IT, ganz klar. Sie bringen tiefes Fachwissen und Erfahrung aus vergleichbaren Projekten mit, haben aber auch eigene Partnernetzwerke und oft eine technologische “Konfortzone”. Das ist nicht zwingend schlecht, kann aber in einem angeblich anbieterneutralen Verfahren zu einer leicht versteckten Bevorzugung führen, etwa, wenn dieselben Firmen/Partnernetzwerke an der Erstellung des Pflichtenhefts, der Evaluation und der Umsetzung beteiligt sind.

Besonders kritisch ist es, wenn Partner, die ein Projekt beim Bund erfolgreich umgesetzt haben, diese Referenz aktiv nutzen, um bei anderen Ämtern oder Bedarfsträgern Fuss zu fassen. So kann sich ein Anbieter oder eine Technologie im Bund durchsetzen. Nicht, weil sie immer die objektiv beste Wahl ist, sondern weil sie bereits etabliert ist. Wenn ein Cloud Service Broker externe Partner in zentrale Rollen einbindet, muss dies transparent erfolgen und durch klare Regeln abgesichert sein, inklusive Offenlegung potenzieller Interessenkonflikte.

Fazit

Ein Cloud Service Broker ist ein mächtiges Instrument, um die Cloud-Nutzung beim Bund zu steuern und im Idealfall neutral, transparent und im Interesse des Ganzen. Damit das gelingt, muss der CSB künftig auch die Private Cloud in seine Bewertung einbeziehen, Plattformlösungen berücksichtigen, die alle Stufen abdecken können, und externe Einflüsse klar benennen.

Die Swiss Government Cloud wird nur dann zu einem echten Erfolg, wenn Auswahlentscheidungen nachvollziehbar sind, alle relevanten Betriebsmodelle fair geprüft werden. Dazu gehört auch, dass nicht nur kurzfristige technische Kriterien zählen, sondern ebenso langfristige Kostenentwicklungen, strategische Unabhängigkeit und die Fähigkeit, künftige Technologien flexibel einzubinden.

Gerade in einem Umfeld, in dem viele externe Partner mitarbeiten und bestehende Erfahrungen oder Präferenzen unweigerlich Einfluss nehmen, braucht es klare Leitplanken, um echte Wahlfreiheit zu sichern. Das bedeutet nämlich Transparenz im gesamten Prozess, konsequente Anwendung der eigenen Kriterienkataloge und den Mut, auch einmal gegen Gewohnheiten zu entscheiden, wenn es im Gesamtinteresse sinnvoll ist.

Nur wenn der Auswahlprozess tatsächlich offen ist und nicht von Präferenzen, Gewohnheiten oder bestehenden Anbieterbindungen geprägt wird, kann die Swiss Government Cloud ihr Potenzial entfalten.

Als echte, souveräne und innovative Plattform für die Verwaltung.

Die versteckte Innovationsbremse in der Bundes-IT

Die versteckte Innovationsbremse in der Bundes-IT

Hinweis: Dieser Beitrag spiegelt ausschliesslich meine persönliche Meinung und Einschätzung wider. Er basiert auf öffentlich zugänglichen Informationen sowie eigenen Analysen und Erfahrungen. Er stellt nicht die offizielle Position oder Meinung meines Arbeitgebers dar.

In meinem ersten Artikel habe ich die Gefahr aufgezeigt, dass die Swiss Government Cloud (SGC) am Ende nur eine 1:1-Kopie der heutigen Plattform sein könnte. Technisch neu, aber schon alt, bevor wir überhaupt mit der Modernisierung beginnen. Im zweiten Artikel habe ich das Cloud-Konzentrationsrisiko beim Bund thematisiert und gefragt, ob wir wirklich Vielfalt haben oder nur eine Scheinvielfalt, die in der Praxis wenig Mehrwert bringt.

Nun geht es um eine dritte, mindestens ebenso entscheidende Dimension. Was passiert, wenn wir während der Migration nicht modernisieren?

Auf der Grundlage der Gesamtbetriebskostenrechnung des BIT vom September 2023 und Erfahrungen aus schon durchgeführten Lifecycle-Vorhaben, die ebenfalls eine Plattformmigration beinhalteten, hat das BIT einen Migrationskostenfaktor kalkuliert. Dieser beläuft sich auf 35 Prozent der jährlichen Betriebskosten. Systeme und Anwendungen, die aktuell noch nicht in einer der Cloud-Plattformen des BIT betrieben werden (sogenannte Legacy-Systeme), sind in der Schätzung der Migrationskosten nicht enthalten. Es liegt in der Verantwortung der Leistungsbezüger, die Modernisierung dieser Lösungen einzuplanen und zu beauftragen. Die Ablösung der Legacy-Systeme birgt weiteres Sparpotenzial. Das Thema wird daher im Digitalisierungsrat Bund parallel zur SGC prioritär angegangen.

Gesamthaft entstehen demnach Migrationskosten in der Höhe von 74 Millionen Franken. Es wird von einer Schätzgenauigkeit von ±20 Prozent ausgegangen. Diese schwankende Kostenschätzung ist auf den langen Planungshorizont zurückzuführen: Zwischen dem Zeitpunkt der Schätzung (Ende 2023) und dem Zeitpunkt der Migration (ab 2027) werden sich sowohl die Technologielandschaft auf dem Markt als auch die Anwendungslandschaft der Leistungsbezüger weiterentwickeln. Aufgrund der ausstehenden Beschaffung ist zudem auch die Zielplattform der Migration unbekannt. Eine genaue Schätzung der Migrationskosten ist daher zum jetzigen Zeitpunkt nicht möglich. Es besteht daher das Risiko, dass die effektiven Aufwände für die Migration höher ausfallen als geschätzt.

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_3/lvl_3.1/lvl_3.1.3 

Für mich ist die Antwort klar: wir bauen uns zwar eine souveräne Cloud, nehmen aber die gesamten technischen Altlasten (Technical Debt) einfach mit. Und das könnte langfristig die Innovationsfähigkeit des Bundes stärker bremsen als jedes Konzentrationsrisiko, welches ich im zweiten Teil näher erklärt habe.

Die Logik hinter “erst migrieren, dann modernisieren”

In grossen Behördenprojekten ist diese Reihenfolge Standard. Erst wird die neue Plattform aufgebaut, dann werden bestehende Anwendungen per Lift & Shift migriert, und erst danach denkt man über Modernisierung nach. Aus Sicht von Projektleitern und Politik klingt das nachvollziehbar. Die Stabilität geht vor, Risiken sollen minimiert werden, und der Zeitplan soll beherrschbar bleiben.

Bezüglich der geschätzten Programmausgaben und Migrationskosten wurde bestätigt, dass die Schätzung der Programmausgaben schlüssig und nachvollziehbar und die Schätzung der Migrationsaufwände im Rahmen der verfügbaren Daten fundiert und adäquat ist.

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_3/lvl_3.1/lvl_3.1.4 

Das Problem ist nur, dass IT-Anwendungen nicht wie Möbel sind, die man einfach in ein neues Haus stellt. Sie altern auch während des Umzugs weiter. Sicherheitslücken entstehen, Technologien werden obsolet, und moderne Funktionen der neuen Plattform bleiben ungenutzt. Am Ende haben wir zwar den physischen Ort gewechselt, aber an der Substanz der Anwendungen nichts verändert und damit die eigentlichen Probleme nicht gelöst.

Die Kosten von Technical Debt in souveränen Umgebungen

Technical Debt bedeutet, dass man technische Altlasten weiterträgt und damit einen Preis in der Zukunft zahlt, meist in Form von höheren Kosten, höherem Risiko und verpassten Chancen. In einer souveränen Cloud wie der SGC kann sich das besonders stark auswirken. Wenn Fachapplikationen erst in eine Private Cloud migriert und später z.B. ein zweites Mal in eine Public Cloud verschoben werden müssen, entstehen unnötige Mehrfachmigrationen. Gleichzeitig bleiben Möglichkeiten wie Automatisierung, Self-Service oder KI-Integration ungenutzt, weil die Anwendungen nicht dafür vorbereitet sind.

Auch wirtschaftlich ist das ein Problem. Legacy-Anwendungen verbrauchen mehr Ressourcen, sind schwerer zu warten und erfordern oft spezielle Skills, die teuer und rar sind. Sicherheitsrisiken verschärfen die Lage zusätzlich, da alte Systeme sich nur schwer auf den neuesten Stand bringen lassen.

Warum “Modernisierung während Migration” auch beim Bund möglich wäre

Es muss nicht zwingend heissen: erst migrieren, dann modernisieren. Ein paralleler Ansatz ist machbar, auch in einem hochregulierten Umfeld wie dem Bund. Applikationen können in Wellen migriert und direkt modernisiert werden. Bei einem Replatforming können moderne Plattformdienste (PaaS) schon während der Migration genutzt werden, um Funktionen wie elastische Skalierung, automatisierte Sicherheitspatches oder integrierte Datenanalyse sofort verfügbar zu machen.

Der Vorteil ist offensichtlich: Die technischen Schulden werden nicht einfach mitgenommen, sondern Schritt für Schritt abgebaut. Die Verwaltung und die Bürger:innen profitieren schneller von einer besseren Performance, mehr Funktionalität und einem moderneren Nutzererlebnis.

Die Rolle der Partnerlandschaft

Externe Partner, ob Systemintegratoren, Cloudanbieter oder spezialisierte Softwarehäuser, haben einen grossen Einfluss darauf, ob Modernisierung tatsächlich stattfindet. Das Beispiel von MeteoSchweiz zeigt, dass es auch anders geht. In der Ausschreibung zur Erneuerung der Rechenzentrums- und Cloudinfrastruktur war Modernisierung von Anfang an Teil der Zielsetzung. Die ausgewählten Partner konnten zeigen, dass sie nicht nur migrieren, sondern auch optimieren und teilweise ersetzen können.

Solche Projekte setzen Massstäbe und beeinflussen, wie andere Bundesämter ihre eigenen Strategien gestalten. Doch hier liegt auch ein Risiko: Wenn Partner, die in einem Amt einen erfolgreichen Lift & Shift durchgeführt haben, ohne Modernisierung beauftragt werden, multipliziert sich genau dieser Ansatz in weiteren Projekten und die Chance, echte Innovation einzuführen, schwindet.

Handlungsempfehlung

Damit die Swiss Government Cloud mehr als nur ein neues Zuhause für alte Anwendungen wird, braucht es verbindliche Ziele. Eine definierte Modernisierungsquote pro Migrationswelle könnte helfen. Migrations- und Modernisierungsplan sollten von Beginn an miteinander verknüpft sein. Und es sollte transparent gemacht werden, welche technischen Altlasten bewusst übernommen werden. Nur so lässt sich später nachvollziehen, ob man den richtigen Weg gewählt hat.

Genauso wichtig ist es, erfolgreiche Modernisierungsprojekte aktiv zu kommunizieren und als Vorbild zu nutzen. Sie zeigen, dass es auch unter den Rahmenbedingungen des Bundes möglich ist, Migration und Innovation gleichzeitig umzusetzen.

Gerne bin ich für ein Gespräch verfügbar, um zu zeigen, dass:

  • man die bisher “verlorene” Zeit wieder aufholen kann
  • man das Stufenmodell vereinfachen bzw. abschaffen und kombinieren kann mit nur einer Plattform (inkl. Hosting von VMware und OpenShift Workloads, Konsolidierung von Datenbanken und Reduktion der Betriebskosten)
  • man trotzdem schon modernisieren kann während der Migrations- und Betriebphase (Entlastung vom Betriebsteam, damit mehr Zeit zum Modernisieren zur Verfügung steht)
  • man Geld sparen kann mit einem neuen Plattformansatz (inkl. Zugang zu den neuesten Technologien)

Gedanke: Ich hoffe, dass wenigstens in der Ausschreibung das Thema “Künstliche Intelligenz” (aus Sicht Infrastruktur) bisschen populärer behandelt wird.

Fazit – Souveränität ohne Innovation ist nur die halbe Miete

Die Swiss Government Cloud wird zweifellos ein Meilenstein. Aber wenn wir sie nur nutzen, um bestehende Systeme unverändert zu verschieben, dann schaffen wir kein Fundament für die nächsten Jahrzehnte, sondern nur ein neues Parkhaus für alte Fahrzeuge. Wer sagt “wir modernisieren später”, muss sich bewusst sein, dass später oft teurer, riskanter und manchmal gar nicht mehr möglich ist.

Man muss den Mut haben, nicht nur das Alte ins Neue zu stellen, sondern es gleich besser zu machen.

Cloud-Konzentrationsrisiko beim Bund –  Vielfalt oder nur Scheinvielfalt?

Cloud-Konzentrationsrisiko beim Bund – Vielfalt oder nur Scheinvielfalt?

Hinweis: Dieser Beitrag spiegelt ausschliesslich meine persönliche Meinung und Einschätzung wider. Er basiert auf öffentlich zugänglichen Informationen sowie eigenen Analysen und Erfahrungen. Er stellt nicht die offizielle Position oder Meinung meines Arbeitgebers dar.

In meinem vorherigen Artikel zur Swiss Government Cloud (SGC) habe ich beleuchtet, welche Risiken entstehen, wenn man während der Migration alter Anwendungen zu lange mit der eigentlichen Modernisierung wartet. Heute möchte ich auf einen anderen, eng damit verbundenen Aspekt eingehen: die Frage, ob die beim Bund offiziell propagierte Vielfalt an Cloudanbietern in der Praxis tatsächlich existiert oder ob wir es am Ende nur mit einer Scheinvielfalt zu tun haben.

Vielfalt in der Theorie und die Vorgaben von WTO20007

Seit der Ausschreibung WTO20007 hat die Bundesverwaltung formal Zugriff auf die Public-Cloud-Leistungen von fünf grossen Anbietern: Amazon Web Services, Microsoft Azure, Oracle, IBM und Alibaba Cloud. Ergänzt wird das durch die Private-Cloud-Infrastruktur des BIT, die primär auf VMware-Technologien basiert.

Die Theorie klingt ideal: Leistungsbezüger sollen aus einem breiten Spektrum von Cloudanbietern auswählen können, um für jede Anwendung die beste Plattform zu finden. Dafür existiert ein definierter Abrufprozess, der mit einem anbieterneutralen Pflichtenheft beginnt.

Dieses Pflichtenheft beschreibt die funktionalen, technischen und sicherheitsrelevanten Anforderungen der geplanten Anwendung. Dazu gehört ein Kriterienkatalog, der vorgibt, wie die Anbieterangebote bewertet werden. Basierend darauf erstellt ein Angebotsteam für alle fünf Public-Cloud-Anbieter passende Konfigurationen unter Verwendung der Preisinformationen für die jeweils gültige Region.

WTO20007 Abrufverfahren

Quelle: https://www.bk.admin.ch/dam/bk/de/dokumente/dti/themen/cloud/abrufverfahren-public-clouds-bund-wto-20007-v1.0.pdf.download.pdf/Abrufverfahren%20Public%20Clouds%20Bund%20(WTO%2020007)%20V1.0.pdf 

Falls ein Anbieter ein oder mehrere Ausschlusskriterien nicht erfüllt, wird dies dokumentiert. Am Ende liegen maximal fünf Konfigurationen vor, die im Evaluationsbericht objektiv miteinander verglichen werden. Ja, ganz nach den Regeln des Pflichtenhefts. Der Bericht hält den Ablauf fest und begründet den finalen Abrufentscheid.

In dieser strukturierten, formal sauberen Welt könnte man annehmen: Vielfalt ist garantiert.

Das Konzentrationsrisiko

Auf dem Papier klingt eine breite Streuung auf viele Cloudanbieter wie eine Risikoreduzierung, aber in der Praxis kann es jedoch genau das Gegenteil bewirken.

Jeder zusätzliche Anbieter bedeutet einen weiteren Technologie-Stack, eigene Schnittstellen, Sicherheitsrichtlinien, Abrechnungsmodelle und Supportprozesse. Das erhöht die operative Komplexität, erfordert spezialisierte Skills und belastet die Organisation.

Selbst grosse Organisationen wie das BIT stossen hier an Grenzen, sowohl personell als auch finanziell. Erfahrungsgemäss lässt sich eine Umgebung mit mehr als drei aktiven Cloudanbietern kaum effizient und sicher betreiben. Alles darüber hinaus erzeugt mehr Koordinationsaufwand, höhere Betriebskosten und längere Entscheidungswege.

Die Realität – Weniger ist oft mehr

Tatsächlich zeigt sich aber, dass der Bund heute mehrheitlich nur zwei der fünf Public-Cloud-Anbieter regelmässig nutzt.

Das wirft Fragen auf: Handelt es sich um eine technische Notwendigkeit, weil bestimmte Anforderungen nur von diesen Anbietern erfüllt werden können? Oder sind es bestehende Projekte, Partnerschaften und persönliche Präferenzen der Entscheidungsträger, die zu einer faktischen Konzentration führen?

Auch die Leistungsbezüger selbst, also die Ämter und Organisationen, die die Cloud-Leistungen abrufen, spielen hier eine Rolle. Oft sind externe Firmen in Body-Leasing- oder Beratungsmandaten eingebunden, die mit ihren Erfahrungen, Tools und Partnerschaften die Entscheidungspfade beeinflussen.

So kann ein Muster entstehen: Statt Vielfalt auf allen Ebenen zu leben, etabliert sich eine Kerngruppe an bevorzugten Anbietern, mit denen man “eingespielt” ist.

Das sind die offenen Geheimnisse, welche man in der Informatikbranche kennt. Dieses potenzielle Szenario und Risiko kann also überall auftreten, nicht nur beim Bund.

Theorie trifft Praxis und der Preis bleibt Nebensache

Selbst mit einem formal korrekten, anbieterneutralen Pflichtenheft und einem objektiven Kriterienkatalog kann das Ergebnis am Ende stark von den ursprünglichen Erwartungen abweichen.

Ein fiktives Beispiel: In einer Ausschreibung erfüllen mehrere Anbieter alle technischen und sicherheitsrelevanten Anforderungen. Einer davon liegt preislich rund 50% unter dem bevorzugten Anbieter und das in einer Zeit, in der vielerorts kritisiert wird, dass Public Cloud zu teuer sei und die grossen Hyperscaler das “Böse” verkörpern.

Trotzdem entscheidet man sich für den teureren Anbieter. Offiziell mag das durch andere Bewertungskriterien gedeckt sein, in der Praxis aber zeigt es, dass bestehende Präferenzen, bekannte Ökosysteme oder der Wunsch nach minimalem Umstellungsaufwand oft schwerer wiegen als reine Wirtschaftlichkeit.

Wie vendorneutral sind Pflichtenhefte wirklich?

Auf dem Papier klingt das Verfahren vorbildlich. Ein anbieterneutrales Pflichtenheft wird erstellt, ergänzt durch einen detaillierten Kriterienkatalog. Dort finden sich wohl Kriterien zu Themen wie zum Beispiel Compute, Storage, Netzwerk, Identity und Access Management, DevOps, und IT-Security

In der Praxis bleibt jedoch die Frage: Wie “neutral” sind diese Pflichtenhefte tatsächlich formuliert? Oft werden technische Anforderungen so gesetzt, dass sie implizit bestimmte Anbieter bevorzugen. Nicht zwingend absichtlich, aber basierend auf bisherigen Projekten, vorhandenen Skills oder bekannten Plattformen.

Für den nicht involvierten Anbieter bleibt der Prozess eine Blackbox  und bekommt am Ende wohl lediglich den Hinweis: „Ein anderer Anbieter hat die Anforderungen besser oder vollständiger erfüllt.“ Ohne das Pflichtenheft jemals gesehen zu haben, ohne den direkten Austausch mit dem Kunden (Bedarfsträger), und ohne zu wissen, ob einzelne Kriterien vielleicht auf Technologien zugeschnitten waren, die man selbst gar nicht im Portfolio hat.

Das Resultat ist eine formell korrekte, aber in der Wirkung oft unausgewogene und unfaire Auswahl.

Ist natürlich auch kein transparenter Prozess für den Steuerzahler, da auch keine öffentlichen Dokumente dazu existieren.

Fazit

Vielfalt ist kein Selbstzweck. Im Cloud-Kontext bedeutet sie nicht automatisch mehr Sicherheit oder Flexibilität. Manchmal sogar das Gegenteil. Entscheidend ist nicht, wie viele Anbieter theoretisch verfügbar sind, sondern wie gut die genutzten Anbieter in die strategischen Ziele passen und wie konsequent Modernisierung umgesetzt wird.

Die SGC bietet die Chance, beides zu verbinden: eine überschaubare, operativ beherrschbare Anbieterlandschaft und eine Plattform, die nicht nur heutigen Anforderungen genügt, sondern auch zukünftige Entwicklungen antizipiert.

Aber die Auswahl der Cloudanbieter soll auch fair passieren.

Hier geht es zum dritten Teil: Die versteckte Innovationsbremse in der Bundes-IT

Die Gefahr einer Swiss Government Cloud, die schon bei der Fertigstellung alt ist

Die Gefahr einer Swiss Government Cloud, die schon bei der Fertigstellung alt ist

Hinweis: Dieser Beitrag spiegelt ausschliesslich meine persönliche Meinung und Einschätzung wider. Er basiert auf öffentlich zugänglichen Informationen sowie eigenen Analysen und Erfahrungen. Er stellt nicht die offizielle Position oder Meinung meines Arbeitgebers dar.

Die Schweiz steht vor einem der grössten IT-Migrationsprojekte in ihrer Geschichte. Dem Wechsel von den heutigen Bundesplattformen zur neuen Swiss Government Cloud (SGC). Ein Mammutprojekt – Dutzende Bundesämter, Tausende Anwendungen, Petabytes an Daten, und eine mehrjährige Umsetzung zwischen 2025 und 2032.

Auf dem Papier ist das unsere Chance, etwas Moderneres, Innovativeres und Stabileres zu schaffen mit besserer Performance und höherer Resilienz. Doch hier liegt meine grösste Befürchtung:

Wir könnten die nächsten Jahre damit verbringen, eine 1-zu-1-Kopie der heutigen Plattform zu bauen.

Das Ergebnis wäre eine SGC, die technisch zwar neu ist, aber bereits altert, bevor wir die Anwendungen darauf modernisieren können.

Der Komfort von “Like-for-Like”

Grosse IT-Projekte greifen oft zum sicheren Ansatz. Alte Systeme technisch erneuern, aber nicht verändern. Das minimiert Risiken, reduziert Widerstände und hält den Betrieb stabil.

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_1/lvl_1.2 

Das Bundesamt für Informatik und Telekommunikation (BIT) muss die Stabilität kritischer Dienste wie Steuersysteme, Register, Sicherheitsplattformen etc. während der gesamten Migration gewährleisten. Der “sichere Weg” ist nachvollziehbar, aber auch gefährlich. Er führt potenziell dazu, dass man lediglich dieselbe alte Fahrzeugflotte in einer brandneuen Garage parkt.

Klar ist, dass man schon jetzt im Verzug ist.

Die Migrationsfalle

Die geplante schrittweise Migration in Wellen sorgt für Betriebssicherheit. Zuerst umziehen, dann stabilisieren, dann den nächsten Block verschieben. Aber während dieser Zeit beginnt die neue Plattform bereits zu altern: Hardware muss erneuert, Software aktualisiert und Sicherheitslücken geschlossen werden. Gleichzeitig schreitet die technologische Entwicklung unaufhaltsam voran.

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_2/lvl_2.3 

Das Risiko? Wenn am Ende alle Anwendungen auf der SGC laufen und endlich über Modernisierung nachgedacht werden kann, steht schon der nächste Plattform-Refresh an.

Es ist wie beim Bau einer neuen Autobahn, die zehn Jahre für die Verkehrsverlagerung braucht, und wenn der letzte Konvoi ankommt, ist der Asphalt bereits rissig.

Warum Modernisierung während der Migration passieren muss

Bequem ist es nicht, aber notwendig. Migration und Modernisierung sollten Hand in Hand gehen. Gerade bei einem Replatforming braucht Modernisierung Zeit und bringt gewisse Risiken mit sich, aber die Alternative ist, alte Probleme einfach in ein neues Zuhause zu verschieben.

Der bessere Ansatz wäre Anwendungen nicht nur verschieben, sondern direkt oder kurz nach der Migration teilweise oder vollständig modernisieren. So entsteht Mehrwert von Beginn an.

Die Vorteile liegen auf der Hand:

  • Keine Altlasten mitschleppen -> veraltete Strukturen bleiben zurück.

  • Neue Funktionen sofort nutzen -> Automatisierung, elastische Skalierung, moderne Sicherheitsframeworks werden von Anfang an eingebaut.

  • Echte Effizienzgewinne -> statt ein leeres “Cloud-Gebäude” mit ineffizienten Altlasten zu füllen, zieht nur das ein, was auch in die Zukunft passt. Natürlich gibt es hier einige Ausnahmen, welche sich nicht (mehr) modernisieren lassen.

Die Gefahr politischer Zyklen

Politische Entscheidungszyklen sind kurz, oft nur eine Legislaturperiode oder ein Budgetjahr. Technologische Lebenszyklen dagegen sind lang. Eine Plattform wie die Swiss Government Cloud wird über viele Jahre aufgebaut, betrieben und weiterentwickelt.

Das Problem: Wenn die ersten Projektjahre fast ausschliesslich für den Aufbau der Infrastruktur und eine “sichere Migration” genutzt werden, ohne sichtbare Veränderungen an den Anwendungen, sehen Politik und Öffentlichkeit nach zwei oder drei Jahren noch keinen spürbaren Fortschritt.

Die Wahrnehmung könnte dann schnell kippen: “Viel Geld ausgegeben und nichts ist besser geworden”

Die Konsequenzen sind vorhersehbar: Die politische Unterstützung bröckelt, Budgets werden gekürzt, und aus einem ambitionierten Innovationsprojekt wird ein reines Betriebsprojekt, das nur noch den Status quo verwaltet.

Um das zu vermeiden, braucht es schon in den ersten Jahren sichtbare Verbesserungen wie neue Services, spürbar mehr Performance, effizientere Abläufe. Nur so bleibt die Swiss Government Cloud politisch tragfähig und technologisch zukunftsfähig.

Innovation als Parallelspur, nicht als Phase 2

Die SGC muss von Tag eins an Funktionen bieten, die echte Veränderungen ermöglichen:

  • Self-Service-Umgebungen für Entwickler

  • Integrierte Sicherheitsdienste

  • Datenplattformen für Analysen und KI

  • Schnittstellenstandards für Bund, Kantone und Gemeinden

Warten, bis «alles stabil» ist, bevor man innoviert, bedeutet in Wahrheit Stillstand.

Brauchen wir das Stufenmodell noch?

Heute strukturiert das Cloud-Stufenmodell der Bundesverwaltung ihre Welt in Stufen I bis III (Stufe IV ist beim EJPD und Stufe V ist die NDP beim Kommando Cyber): von Public Cloud über sensible Workloads bis hin zu hochsicheren Private-Cloud-Umgebungen. Historisch gesehen war das sinnvoll, weil unterschiedliche Anforderungen oft unterschiedliche Anbieter und Technologien erforderten.

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_2/lvl_2.2/lvl_2.2.1 

Das BIT schätzt aktuell, dass zwischen 2027 und 2032 rund 70% der Workloads in die Public Cloud wandern könnten. Das entspricht dem heutigen Trend, möglichst viele Services flexibel und skalierbar aus der Public Cloud zu beziehen.

SGC Prozentuale Verteilung Nutzung Cloud-Stufen

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_2/lvl_2.4 

Ein Blick in die offiziellen Programmausgaben bis 2032 zeigt jedoch ein deutlich anderes Bild: Von insgesamt rund 120 Mio. CHF für den Aufbau der Hybrid-Multi-Cloud-Infrastruktur sind 108,5 Mio. CHF (also ca. 90%) für Private Cloud On-Prem vorgesehen. Für Public Cloud sind lediglich 7,1 Mio. CHF (ca. 6%) eingeplant, und für Public Cloud On-Prem gerade einmal 4,5 Mio. CHF (ca. 4%).

SGC Programmausgaben

Quelle: https://www.fedlex.admin.ch/eli/fga/2024/1408/de#lvl_3/lvl_3.1/lvl_3.1.1/lvl_3.1.1.1 

Das ist eine massive Schwerpunktsetzung auf die private, eigene Plattform und deutet darauf hin, dass die reale Umsetzung stark in Richtung Private Cloud tendieren wird, weit entfernt von der 70% Public-Cloud-Annahme.

Nehmen wir nun an, dass sich aufgrund geopolitischer Diskussionen und veränderter Rahmenbedingungen das Verhältnis tatsächlich umkehren soll – also 70% Private Cloud (Stufe III) und nur 30% Public Cloud (Stufen I & II). Dann könnte es in diesem Szenario passieren, dass heutige Fachapplikationen zunächst auf die neue Plattform der Stufe III migriert werden, nur um später ein zweites Mal in die Public Cloud verschoben zu werden. Das wäre doppelte Arbeit mit doppelten Kosten, längeren Projektlaufzeiten und unnötigen Unterbrüchen für die betroffenen Dienste.

Wenn die SGC jedoch in der Lage ist, alle Anforderungen, von IaaS bis SaaS, von hochkritischen bis unkritischen Workloads innerhalb einer integrierten Plattform abzubilden, liesse sich diese Mehrfachmigration vermeiden. Das würde nicht nur Komplexität reduzieren, sondern auch die Flexibilität erhöhen, Workloads jederzeit zwischen verschiedenen Betriebsmodellen zu verschieben, ohne sie erneut komplett umziehen zu müssen.

Die Cloud-Landschaft des Bundes und die Grenzen der Vielfalt

Beim BIT ist bekannt, dass in der Private Cloud vorwiegend VMware-basierte Technologien zum Einsatz kommen. Gleichzeitig erlaubt das WTO20007-Abkommen, dass Leistungsbezüger auch Services von grossen Public-Cloud-Anbietern wie AWS, Azure, Oracle, IBM und Alibaba Cloud nutzen können.

Theoretisch könnten also bis zu sechs verschiedene Cloud-Stacks parallel betrieben werden. Praktisch ist das kaum vorstellbar. Schon heute ist es eine Herausforderung, eine einzelne Public Cloud neben einer komplexen Private Cloud effizient zu betreiben – mit unterschiedlichen Betriebsmodellen, Schnittstellen, Sicherheitsrichtlinien und Abrechnungsmodellen. Multipliziert man das mit sechs, wird die Situation operationell schnell unbeherrschbar.

Darum ist es realistisch anzunehmen, dass sich der Bund künftig auf maximal zwei bis drei Cloudanbieter konzentrieren wird. Mehr Anbieter bedeuten nicht automatisch mehr Sicherheit oder Flexibilität. Im Gegenteil: Sie erhöhen die Komplexität, schaffen zusätzliche Abhängigkeiten und erfordern eine enorme Menge an spezialisierten Skills, die selbst ein grosses Bundesamt wie das BIT kaum in ausreichender Tiefe vorhalten kann.

Das ideale Szenario wäre, wenn das Stufenmodell vereinfacht oder sogar abgeschafft werden könnte, weil es marktverfügbare Plattformen gibt, die alle drei Stufen gleichzeitig abbilden können. Ja, von Public Cloud über Public Cloud On-Prem bis Private Cloud On-Prem. In diesem Fall müsste das BIT nur mit einem Cloudanbieter arbeiten.

Bemerkung: Während der Migrationsphase gibt es natürlich eine Überlappung und dann wären es temporär zwei Cloudanbieter (im eigenen Rechenzentrum).

Die Chance, die wir nicht verpassen dürfen

Die Swiss Government Cloud ist eine einmalige Gelegenheit, die digitale Infrastruktur der Bundesverwaltung auf ein neues Niveau zu heben.

Das bedeutet:

  • Alte, fragile Anwendungen durch modulare, cloud-native Lösungen ersetzen

  • Sicherheit und Compliance einheitlich umsetzen

  • KI, Automatisierung und Echtzeitdaten in den Betrieb einbinden

  • IT reaktionsfähiger und krisenfester machen

Wenn wir die SGC nur als “neues Zuhause” für bestehende Systeme sehen, werden wir genau das bekommen. Und bis wir die “neue Einrichtung” kaufen, muss das Dach schon wieder saniert werden.

Meine grösste Befürchtung

Bis 2032 könnte die Schweiz eine souveräne Cloud-Plattform besitzen, die technisch solide, rechtlich abgesichert und vollständig unter Schweizer Kontrolle ist, aber dennoch dieselben isolierten Services liefern wie heute.

Die (irgendwann) kommende Ausschreibung und nächsten Jahre entscheiden, ob die Swiss Government Cloud ein Fundament für echten Fortschritt oder ein Mahnmal für verpasste Chancen wird.

Hier geht es zum zweiten Teil: Cloud-Konzentrationsrisiko beim Bund – Vielfalt oder nur Scheinvielfalt?

The Cloud Isn’t Eating Everything. And That’s a Good Thing

The Cloud Isn’t Eating Everything. And That’s a Good Thing

A growing number of experts warn that governments and enterprises are “digitally colonized” by U.S. cloud giants. A provocative claim and a partial truth. It’s an emotionally charged view, and while it raises valid concerns around sovereignty and strategic autonomy, it misses the full picture.

Because here’s the thing. Some (if not most) workloads in enterprise and public sector IT environments are still hosted on-premises. This isn’t due to resistance or stagnation. It’s the result of deliberate decisions made by informed IT leaders. Leaders who understand their business, compliance landscape, operational risks, and technical goals.

We are no longer living in a world where the public cloud is the default. We are living in a world where “cloud” is a choice and is used strategically. This is not failure. It’s maturity.

A decade ago, “cloud-first”  was often a mandate. CIOs and IT strategists were encouraged, sometimes pressured, to move as much as possible to the public cloud. It was seen as the only way forward. The public cloud was marketed as cheaper, faster, and more innovative by default.

But that narrative didn’t survive contact with reality. As migrations progressed, enterprises quickly discovered that not every workload belongs in the cloud. The benefits were real, but so were the costs, complexities, and trade-offs.

Today, most organizations operate with a much more nuanced perspective. They take the time to evaluate each application or service based on its characteristics. Questions like: Is this workload latency-sensitive? What are the data sovereignty requirements? Can we justify the ongoing operational cost at scale? Is this application cloud-native or tightly coupled to legacy infrastructure? What are the application’s dependencies?

This is what maturity looks like. It’s not about saying “yes” or “no” to the cloud in general. It’s about using the right tool for the right job. Public cloud remains an incredibly powerful option. But it is no longer a one-size-fits-all solution. And that’s a good thing.

On-Premises Infrastructure Is Still Valid

There is this persistent myth that running your own datacenter, or even part of your infrastructure, is a sign that you are lagging behind. That if you are not in the cloud, you are missing out on agility, speed, and innovation. That view simply doesn’t hold up.

In reality, on-premises infrastructure is still a valid, modern, and strategic choice for many enterprises, especially in regulated industries like healthcare, finance, manufacturing, and public services. These sectors often have clear, non-negotiable requirements around data locality, compliance, and performance. In many of these cases, operating infrastructure locally is not just acceptable. It’s the best option available.

Modern on-prem environments are nothing like the datacenters of the past. Thanks to advancements in software-defined infrastructure, automation, and platform engineering, on-prem can offer many of the same cloud-like capabilities: self-service provisioning, infrastructure-as-code, and full-stack observability. When properly built and maintained, on-prem can be just as agile as the public cloud.

That said, it’s important to acknowledge a key difference. While private infrastructure gives you full control, it can take longer to introduce new services and capabilities. You are not tapping into a global marketplace of pre-integrated services and APIs like you would with Oracle Cloud or Microsoft Azure. You are depending on your internal teams to evaluate, integrate, and manage each new component.

And that’s totally fine, if your CIO’s focus is stability, compliance, and predictable innovation cycles. For many organizations, that’s (still) exactly what’s needed. But if your business thrives on emerging technologies, needs instant access to the latest AI or analytics platforms, or depends on rapid go-to-market execution, then public cloud innovation cycles might offer an advantage that’s hard to replicate internally.

Every Enterprise Can Still Build Their Own Data Center Stack

It’s easy to assume that the era of enterprises building and running their own cloud-like platforms is over. After all, hyperscalers move faster, operate at massive scale (think about the thousands of engineers and product managers), and offer integrated services that are hard to match. For many organizations, especially those lacking deep infrastructure expertise or working with limited budgets, the public cloud is the most practical and cost-effective option.

But that doesn’t mean enterprises can’t or shouldn’t build their own platforms, especially when they have strong reasons to do so. Many still do, and do it effectively. With the right people, architecture, and operational discipline, it’s entirely possible to build private or hybrid environments that are tailored, secure, and strategically aligned.

The point isn’t to compete with hyperscalers on scale, it’s to focus on fit. Enterprises that understand their workloads, compliance requirements, and business goals can create infrastructure that’s more focused and more integrated with their internal systems.

Yes, private platforms may evolve more slowly. They may require more upfront investment and long-term commitment. But in return, they offer control, transparency, and alignment. Advantages that can outweigh speed in the right contexts!

And critically, the tooling has matured. Today’s internal platforms aren’t legacy silos but are built with the same modern engineering principles: Kubernetes, GitOps, telemetry, CI/CD, and self-service automation.

Note: If a customer wants the best of both worlds, there are options like OCI Dedicated Region.

The Right to Choose the Right Cloud

One of the most important shifts we are seeing in enterprise IT is the move away from single-platform thinking. No one-size-fits-all platform exists. And that’s precisely why the right to choose the right cloud matters.

Public cloud makes sense in many scenarios. Organizations might choose Azure because of its tight integration with Microsoft tools. They might select Oracle Cloud for better pricing or AI capabilities. At the same time, they continue to operate significant workloads on-premises, either by design or necessity.

This is the real world of enterprise IT: mixed environments, tailored solutions, and pragmatic trade-offs. These aren’t poor decisions or “technical debt”. Often, they are deliberate architectural choices made with a full understanding of the business and operational landscape. 

What matters most is flexibility. Organizations need the freedom to match workloads to the environments that best support them, without being boxed in by ideology, procurement bias, or compliance roadblocks. And that flexibility is what enables long-term resilience.

What the Cloud Landscape Actually Looks Like

Step into any enterprise IT environment today, and you will find a blend of technologies, platforms, and operational models. And the mix varies based on geography, industry, compliance rules, and historical investments.

The actual landscape is not black or white. It’s a continuum of choices. Some services live in hyperscale clouds. Others are hosted in sovereign, regional datacenters. Many still run in private infrastructure owned and operated by the organization itself.

This hybrid approach isn’t messy. It’s intentional and reflects the complexity of enterprise IT and the need to balance agility with governance, innovation with stability, and cost with performance.

What defines modern IT today is the operating model. The cloud is not a place. It’s a way of working. Whether your infrastructure is on-prem, in the public cloud, or somewhere in between, the key is how it’s automated, how it’s managed, how it integrates with developers and operations, and how it evolves with the business.

Conclusion: Strategy Over Hype – And Over Emotion

There’s no universal right or wrong when it comes to cloud strategy. Only what works for your organization based on risk, requirements, talent, and timelines. But we also can’t ignore the reality of the current market landscape.

Today, U.S. hyperscalers control over 70% of the European cloud market. Across infrastructure layers like compute, storage, networking, and software stacks, Europe’s digital economy relies on U.S. technologies for 85 to 90% of its foundational capabilities. 

But these numbers didn’t appear out of nowhere.

Let’s be honest: it’s not the fault of hyperscalers that enterprises and public sector organizations chose to adopt their platforms. Those were decisions made by people – CIOs, procurement teams, IT strategists – driven by valid business goals: faster time-to-market, access to innovation, cost modeling, availability of talent, or vendor consolidation.

These choices might deserve reevaluation, yes. But they don’t deserve emotional blame.

We need to stop framing the conversation as if U.S. cloud providers “stole” the European market. That kind of narrative doesn’t help anyone. The reality is more complex and far more human. Companies chose platforms that delivered, and hyperscalers were ready with the talent, services, and vision to meet that demand.

If we want alternatives, if we want European options to succeed, we need to stop shouting at the players and start changing the rules of the game. That means building competitive offerings, investing in skills, aligning regulation with innovation, and making sovereignty a business advantage, not just a political talking point.