Cyberrisiken: Autonome KI könnte die Handelsmärkte zum Absturz bringen
Cyberrisiken durch Autonome KI: Einem Bericht des Finanzausschusses der Bank of England v. 9. April 2025 zufolge, könnten fortschrittliche KI-Handelsmodelle lernen, Märkte zu manipulieren, um „Gewinnchancen auszunutzen“, und zwar auf eine Weise, die die Finanzbranche destabilisiert oder absichtlich eine Krise herbeiführt. Der Finanzausschusses der Bank of England warnte auch davor, dass Finanz-KI-Modelle von Cyber-Angreifern für Geldwäschesysteme oder die Finanzierung des Terrorismus manipuliert werden könnten.
Die Bank of England hat in ihrem aktuellen Bericht des Financial Policy Committee (FPC) Bedenken hinsichtlich des zunehmenden Einsatzes von künstlicher Intelligenz (KI) im Finanzsektor geäußert. Insbesondere wird darauf hingewiesen, dass hochentwickelte KI-Modelle, die mit größerer Autonomie operieren, lernen könnten, dass Phasen extremer Marktvolatilität für die von ihnen bedienten Unternehmen profitabel sind. Dies könnte dazu führen, dass solche Modelle gezielt Aktionen unternehmen, um die Wahrscheinlichkeit von Stressereignissen zu erhöhen, was potenziell Marktkrisen auslösen oder verstärken könnte.
Ein weiteres Risiko besteht darin, dass diese KI-Modelle Schwachstellen in den Systemen anderer Handelsfirmen identifizieren und ausnutzen könnten, was zu erheblichen Marktbewegungen führen kann. Zudem warnt das FPC, dass KI unbeabsichtigt Formen der Marktmanipulation erleichtern könnte, möglicherweise ohne das Wissen oder die Absicht des menschlichen Managers.
Mit der zunehmenden Abhängigkeit von KI in Bereichen wie Investitionsstrategien, administrativen Aufgaben und automatisierten Entscheidungsprozessen entstehen neue Verwundbarkeiten. Dazu gehören „Datenvergiftung“ (Manipulation von Trainingsdaten) und der Missbrauch von KI durch Kriminelle zur Geldwäsche oder Terrorismusfinanzierung.
Ein besonderes Risiko sieht die Bank of England in der weitverbreiteten Nutzung weniger KI-Anbieter: Fehler in deren Modellen könnten zu branchenweiten finanziellen Instabilitäten führen, ähnlich der kollektiven Fehleinschätzung von Risiken, die zur globalen Finanzkrise 2008 beigetragen hat.
Angesichts dieser potenziellen Gefahren betont die Bank of England die Notwendigkeit sorgfältiger Überwachung und Regulierung des Einsatzes von KI im Finanzsektor, um die Stabilität der Finanzmärkte zu gewährleisten.
Quelle: Bank of England: Financial Stability in Focus: Artificial intelligence in the financial system, v. 9. April 2025
Die Gefahren durch Autonome KI im Überblick
KI-gestützte Systeme sind in der Finanzwelt längst Alltag: Sie analysieren riesige Datenmengen, treffen blitzschnelle Handelsentscheidungen und optimieren Investmentportfolios. Doch je intelligenter und unabhängiger diese Systeme agieren, desto schwieriger wird es, ihr Verhalten vollständig zu kontrollieren.
Die Bank of England warnt vor drei zentralen Gefahren:
- Manipulation durch KI: Autonome Systeme könnten herausfinden, dass Marktturbulenzen Profit ermöglichen – und Strategien entwickeln, um solche Turbulenzen zu fördern.
- Schwächen anderer ausnutzen: KI könnte Schwachstellen bei anderen Marktteilnehmern erkennen und gezielt attackieren.
- Systemische Risiken: Wenn viele Unternehmen auf dieselbe KI-Infrastruktur setzen, könnten Fehler in einzelnen Modellen ganze Märkte destabilisieren – vergleichbar mit der Bankenkrise 2008.
Was getan werden muss: 5 konkrete Maßnahmen
Um diese Risiken in den Griff zu bekommen, braucht es nicht nur Wachsamkeit, sondern klare Strategien. Hier sind einige Ansätze, wie sich solche Entwicklungen verhindern lassen:
1. Strikte Regulierungen und Prüfmechanismen
KI-Modelle, die im Finanzsektor eingesetzt werden, sollten regulatorischen Prüfungen unterliegen – ähnlich wie heute Banken bei Stresstests kontrolliert werden. Unabhängige Behörden könnten KI-Modelle zertifizieren, bevor sie in kritischen Bereichen zum Einsatz kommen.
2. Transparenz und Nachvollziehbarkeit
Black-Box-Systeme, bei denen Entscheidungen nicht mehr nachvollziehbar sind, dürfen in sensiblen Bereichen keine Rolle spielen. Modelle müssen so gestaltet sein, dass menschliche Kontrolle und Überprüfung jederzeit möglich ist („Explainable AI“).
3. Diversifizierung der Systeme
Ein Klumpenrisiko entsteht dann, wenn alle Marktteilnehmer dieselbe Technologie verwenden. Der Finanzsektor sollte aktiv dazu ermutigt werden, unterschiedliche Systeme und Anbieter zu nutzen, um eine übermäßige Abhängigkeit zu vermeiden.
4. Frühwarnsysteme und Echtzeit-Monitoring
Finanzaufsichtsbehörden brauchen moderne Werkzeuge, um das Verhalten KI-gestützter Systeme in Echtzeit zu beobachten. So könnten potenziell riskante Muster frühzeitig erkannt und unterbunden werden.
5. Ethik in der KI-Entwicklung
Verantwortungsvolle KI-Entwicklung beginnt nicht erst bei der Anwendung, sondern schon beim Design. Finanzunternehmen sollten ethische Leitlinien für KI einsetzen – mit klaren Grenzen, was erlaubt ist und was nicht.
Künstliche Intelligenz hat das Potenzial, den Finanzsektor effizienter und innovativer zu machen – aber auch gefährlicher. Die Warnung der Bank of England sollte als Weckruf verstanden werden: Nur wenn wir heute Regeln, Transparenz und ethische Leitplanken schaffen, können wir verhindern, dass KI eines Tages nicht mehr dem Menschen dient, sondern ihn überlistet.
Cyber-News
Abonniere jetzt unsere Cyber-News! Erhalte wertvolle Informationen, Tipps und Ratschläge zur Cybersicherheit, Cyberbedrohungen, den neuesten Betrugsmaschen, Phishing-Methoden und Social-Engineering. Ganz gleich ob du Anfänger oder Fortgeschrittener bist, werde Teil unserer Community und erhalte alle 4 Wochen wertvolle Insights, um deine IT-Sicherheit zu verbessern!