KI-Resilienz gewinnt an Bedeutung
Mit Blick auf geopolitische Spannungen, insbesondere gegenüber gegenüber den USA und China, sind KI- und Cloud-Abhängigkeiten kritische Realität für Banken. Doch wie damit umgehen? Am besten, indem man die Risiken, wie nachfolgend beschrieben, fokussiert angeht!
Angesichts internationaler Spannungen, insbesondere im transatlantischen Verhältnis, rücken Abhängigkeiten von Cloud-Anbietern außerhalb Europas zunehmend in den Fokus von Kreditinstituten.
Erste Institute reagieren bereits: So gab beispielsweise die Landesbank Hessen-Thüringen (Helaba) am 12.08.20251 in einer Pressemitteilung bekannt, dass sie mit Schwarz Digits, dem Infrastrukturdienstleister der Schwarz Gruppe, eine Partnerschaft eingeht.
Es ist für Geldhäuser also an der Zeit, ihre KI-Infrastruktur gegenüber möglichen Risiken krisenfest zu machen. Aber ist der Wechsel so einfach möglich – und ist er auch wirtschaftlich?
Grundsätzlich bieten cloudbasierte Ansätze insbesondere bei der Skalierung von GenAI-Lösungen auf den ersten Blick klare Vorteile, etwa durch flexible Infrastruktur und hohe Rechenkapazitäten, und zwar zunächst einmal unabhängig davon, ob sie in den USA oder der EU gehostet werden. Da für die produktive Nutzung solcher Modelle spezialisierte Infrastrukturen wie GPUs erforderlich sind, ist der wirtschaftliche Betrieb generativer KI – beispielsweise großer Sprachmodelle – für viele Banken nur unter bestimmten Voraussetzungen sinnvoll.
Eine Beispielrechnung verdeutlicht die signifikanten Investitionen, die mit dem On-Premise-Betrieb eines Company- GPT-Chatbots verbunden wären – unabhängig von externen Cloud-Anbietern.
Die Beispielkalkulation in Abbildung 1 errechnet eine Differenz von gut 90.000 EUR zwischen dem Eigenbetrieb und Cloud- Betrieb von KI-Modellen.
Hyperscaler bieten sehr gut skalierende Preise für KI-Infrastruktur, sodass der eigenständige Betrieb unattraktiv bleibt.
Damit wird klar: Allein aus Kostensicht ist das Beziehen von GenAI-Fähigkeiten über große Hyperscaler eigentlich die einzig attraktive Option. Und dennoch sollten Finanzinstitute sich der damit einhergehenden Risiken und Abhängigkeiten bewusst sein – und sie aktiv managen. Für den souveränen Betrieb von KI-Anwendungen hilft der mehrdimensionale Blick hinsichtlich des technologischen und operativen Betriebs.
Technologische Souveränität: Raus aus der Hyperscaler-Abhängigkeit
Ein wesentliches Risiko bei der Nutzung von Cloud-Diensten besteht im sogenannten Lock-in-Effekt: Sobald kritische IT-Komponenten tief in einer Anbieterlösung verankert sind, wird ein Wechsel auf andere Plattformen schwierig. Dies ist insbesondere im Kontext des Betriebs generativer KI-Anwendungen relevant, bei dem Cloud-Provider neben der Bereitstellung von Infrastruktur zunehmend auch eigene Modelle anbieten.
Um technologische Souveränität zu wahren und KI-Resilienz aufzubauen, empfiehlt sich der Aufbau einer unternehmenseigenen GenAI-Plattform. Eine solche Plattform ermöglicht die flexible Integration unterschiedlicher Sprachmodelle verschiedener Anbieter. Die Abrechnung erfolgt dabei modellabhängig, etwa auf Silbenbasis (sogenannte Token). So lassen sich Use Cases gezielt umsetzen, ohne in vollständige Abhängigkeit von einem Anbieter zu geraten.
Verzahnung mit bankspezifischen Daten ist zentraler USP
Strategische Partnerschaften mit Cloud-Providern stellen keinen Widerspruch zum Etablieren einer GenAI-Plattform dar. Denn durch sie können mehr hoch performante KI-Modelle zu einem attraktiven Preis an ebendiese Plattform angeschlossen werden. Den entscheidenden Mehrwert generativer Anwendungen erschließen Banken und Versicherungen durch unternehmensspezifisches Finetuning der Modelle. Im Vergleich zu Start-ups oder Technologieanbietern liegt hier ein klarer Wettbewerbsvorteil: Der Zugriff auf eigene Daten ist zentral und effizient.
Die vollständige Unabhängigkeit in diesem Zusammenhang wird erreicht, wenn ein API-Hub als zentrale Datendrehscheibe dient. In einer solchen Architektur stellt die GenAI-Plattform Sprachfähigkeiten bereit, die mit bankinternen Daten aus dem API-Hub kombiniert und weiterverarbeitet werden.
Operative Souveränität: KI macht Fehler – planen Sie das mit ein
Neben der technologischen besitzt – insbesondere in Krisenzeiten – die operative Steuerung Relevanz. Im Gegensatz zu klassischen Softwareentwicklungen zeichnen sich generative KI-Anwendungen durch eine gewisse Ergebnisoffenheit aus. Entscheidungen werden auf Basis statistischer Wahrscheinlichkeiten getroffen, sodass deterministische Zuverlässigkeit entfällt.
Für einen sicheren Betrieb generativer KI sind daher neue operative Steuerungsmechanismen erforderlich. Dazu zählen etwa Prozesse zur Überwachung von Modellverhalten, Eskalationslogiken bei Fehlprognosen sowie der bewusste Umgang mit Halluzinationen oder unangemessenen Ausgaben. Das Ziel besteht nicht in der vollständigen Vermeidung von Fehlern, sondern in der Schaffung eines belastbaren Rahmenwerks zur Minimierung und Einhegung von Risiken. Dem zugrunde liegt an erster Stelle ein Mentalitätswechsel innerhalb des eigenen Instituts, die oben diskutierten Wahrscheinlichkeiten als belastbare Gütekriterien von IT-Systemen zu akzeptieren.
Zwischen Effizienz und Kontrollverlust – KI-Spagat braucht Fingerspitzengefühl
Die souveräne, risikoarme Nutzung generativer KI erfordert von Banken also weit mehr als die initiale technologische Entscheidung, KI in ihren Prozessen zu etablieren. Denn die damit einhergehenden Risiken lassen sich aktiv nur durch frühzeitige strategische Entscheidungen im Spannungsfeld zwischen Innovation, Abhängigkeit und regulatorischen Anforderungen managen.
Zentral dabei: bewusst Partnerschaften mit großen Hyperscalern eingehen und daneben eine eigenständige GenAI-Plattform für erhöhte Flexibilität etablieren.
