Die Bundesanstalt für Finanzdienstleistungsaufsicht hat am 18. Dezember 2025 eine Orientierungshilfe zu IKT-Risiken beim Einsatz von Künstlicher Intelligenz in Finanzunternehmen veröffentlicht. Das Dokument unterstützt Institute bei der Umsetzung der Anforderungen des Digital Operational Resilience Act und ordnet KI-Systeme erstmals eindeutig als Netzwerk- und Informationssysteme im Sinne von DORA ein.
Hintergrund und Zielsetzung
Finanzunternehmen setzen Künstliche Intelligenz bereits entlang der gesamten Wertschöpfungskette ein – von der Kreditrisikobeurteilung über Fraud-Detection bis hin zu Chatbots im Kundenservice. Die Implementierung und der Betrieb von KI-Systemen können jedoch erhebliche Risiken bergen. Aus regulatorischer Sicht sind vor allem die Risiken der Informations- und Kommunikationstechnologie relevant.
Die Orientierungshilfe richtet sich insbesondere an Finanzunternehmen, die zur Einhaltung der Verordnung (EU) 2022/2554 – Digital Operational Resilience Act (DORA) verpflichtet sind, und versteht sich ausdrücklich als nicht verpflichtende Hilfestellung. Sie soll Finanzunternehmen dabei unterstützen, regulatorische Anforderungen aus DORA beim Einsatz von KI umzusetzen und damit ihre IKT-Risiken effektiv zu managen.
Primäre Zielgruppe sind CRR-Institute (Kreditinstitute nach Capital Requirements Regulation) und Versicherungsunternehmen, die nach Solvency II beaufsichtigt werden und den vollständigen IKT-Risikomanagementrahmen nach Art. 5-15 DORA anzuwenden haben.
Einordnung von KI-Systemen als IKT-Assets
Die BaFin verortet die Orientierungshilfe stringent im DORA-Regelungsrahmen sowie in den einschlägigen Regulatory Technical Standards zum IKT-Risikomanagement (RTS RMF, Delegierte Verordnung (EU) 2024/1774) und zur Untervergabe von IKT-Dienstleistungen (RTS SUB, Delegierte Verordnung (EU) 2025/532).
KI-Systeme werden als ein Unterfall der weiter gefassten Netzwerk- und Informationssysteme gemäß Art. 3 Nr. 2 DORA eingeordnet. Der Begriff maschinengestütztes System wird im Sinne von DORA als eine Kombination von IKT-Assets (Hard- und Software) und IKT-Infrastruktur verstanden, in die ein komplexes mathematisches Modell implementiert ist. Das Modell selbst wird hierbei als IKT-Asset (Software) verstanden.
Diese Einordnung hat weitreichende Konsequenzen: KI-Systeme unterliegen vollständig dem DORA-Regelwerk und müssen wie andere IKT-Assets in die bestehenden Prozesse zur Risikoidentifikation, Schutz und Prävention, Erkennung, Reaktion und Wiederherstellung sowie Lernen und Weiterentwicklung eingebettet werden.
Risikobasierter Ansatz und Governance-Anforderungen
Maßgeblich ist ein konsequent risikobasierter Ansatz. Umfang und Tiefe der Maßnahmen hängen insbesondere ab von der Kritikalität der unterstützten Funktion, der Sensitivität der verarbeiteten Daten und dem Grad der Automatisierung. KI-Systeme in kritischen oder wichtigen Funktionen unterliegen entsprechend erhöhten Governance-, Kontroll- und Sicherheitsanforderungen.
Auf Governance-Ebene erwartet die BaFin eine klare strategische Verankerung des KI-Einsatzes, beispielsweise durch eine eigenständige oder integrierte KI-Strategie. Diese ist vom Leitungsorgan zu genehmigen.
Die BaFin betont die Letztverantwortung der Geschäftsleitung (Art. 5 Abs. 2 DORA). Vorstände können sich nicht auf Unwissenheit berufen. DORA fordert explizit, dass Mitglieder des Leitungsorgans ausreichende IKT-Kenntnisse erwerben. Im KI-Kontext bedeutet dies, dass die Geschäftsleitung zwar keinen Code schreiben können muss, aber verstehen sollte, was Model Drift ist, warum Halluzinationen bei Large Language Models ein Risiko darstellen und wo die Grenzen der Automatisierung liegen.
Integration in den IKT-Risikomanagementrahmen
KI-Systeme sind vollständig in den IKT-Risikomanagementrahmen nach DORA zu integrieren. Finanzunternehmen müssen eine vollständige Inventarisierung ihrer KI-Systeme durchführen, einschließlich Modelle, Datenbestände und verwendeter Libraries. Dies schließt sogenannte Schatten-KI und KI-Komponenten in zugekaufter Standardsoftware (beispielsweise HR-Tools oder Ticketing-Systeme) ein.
Für kritische KI-Systeme sind Logging-, Monitoring- und Schwellenwertkonzepte erforderlich. Zudem sind geregelte Prozesse für Stilllegung, Deinstallation und sichere Löschung von Modellen und Daten vorzusehen.
Anforderungen an Entwicklung und Betrieb
Entwicklung und Test
Für Entwicklung und Test sind etablierte Software-Engineering-Standards anzuwenden. Erwartet werden unter anderem vollständige Dokumentation und Versionierung, wirksames Change-Management sowie besondere Sorgfalt bei Open-Source-Komponenten, KI-generiertem Code und generativer KI (beispielsweise Large Language Models).
Betrieb und Überwachung
Die Orientierungshilfe betrachtet die IKT-Risiken entlang des KI-Lebenszyklus. Dieser umfasst die Beschaffung von Daten, die Entwicklung von Modellen und deren Bereitstellung sowie den laufenden Betrieb und die Stilllegung. Die Sicherheit und die Resilienz eines KI-Systems müssen in jeder Phase gewährleistet sein.
Die Cybersicherheit erlangt durch die Nutzung komplexer KI-Systeme eine erhöhte Bedeutung. So können Schwachstellen, wie beispielsweise Backdoors, während des Trainings unbemerkt in das Modell eingeschleust werden. Weiterhin kann die unsichere Bereitstellung von Software (etwa über Open-Source-Bibliotheken) dazu führen, dass Angreifer Modelle stehlen oder manipulieren. Ebenso können adversarielle Angriffe oder unautorisierte Zugriffe während der Nutzung des Modells zu Fehlentscheidungen der Unternehmen führen.
IKT-Drittparteienrisikomanagement
Beim Einsatz von KI in der Cloud liegt aufsichtlich ein IKT-Drittparteienrisiko vor. Besondere Bedeutung misst die BaFin den IKT-Drittparteienrisiken bei, da viele KI-Systeme faktisch nur cloudbasiert betrieben werden können.
Entsprechend sind erhöhte Anforderungen umzusetzen, insbesondere in Bezug auf Due Diligence, Unterauftragsvergabe, Service Level Agreements sowie Audit- und Zugriffsrechte und Transparenz über Datenflüsse und Subdelegationsketten.
Praktische Bedeutung und Prüfungsrelevanz
Auch wenn die Orientierungshilfe ausdrücklich keinen verbindlichen Rechtscharakter besitzt und keine formelle Auslegung der DORA darstellt, reflektiert sie die bisherigen aufsichtlichen Erfahrungswerte, greift typische Umsetzungsprobleme auf und verdeutlicht, welche Erwartungen die Aufsicht hat.
Die Orientierungshilfe eignet sich sehr gut als Prüfungsmaßstab für Aufbau- und Angemessenheitsprüfungen im DORA-Kontext, insbesondere bei KI-gestützten Fachanwendungen (beispielsweise Chatbots, Fraud-Detection, Compliance-Tools). Sie lässt sich konsistent mit Prüfungen zu internen Kontrollsystemen, Auslagerungen und IT-Governance verzahnen.
Für Finanzunternehmen empfiehlt sich eine proaktive Gap-Analyse gegen die Standards der Orientierungshilfe, um regulatorischen Überraschungen in künftigen Aufsichtsprüfungen vorzubeugen.
Veröffentlicht in Aktuelle Themen