Lars Eichhorst - Energy Solutions

Die Integration von Künstlicher Intelligenz (KI) in die Energiewirtschaft verspricht zahlreiche Innovationen, birgt aber auch ernsthafte Risiken. Cyberkriminelle verursachen bereits einen jährlichen Schaden von 206 Milliarden Euro in Deutschland. Mit dem Aufschwung der KI könnten sich diese Gefahren in bisher unbedachte Richtungen verschieben. Energieunternehmen stehen vor der Herausforderung, ihre kritischen Infrastrukturen weiterhin angemessen zu schützen.

Laut Marktforschern des Technologieforschungs- und Beratungsunternehmens IDC werden die Ausgaben für generative KI in den nächsten vier Jahren erheblich ansteigen – von aktuell 16 Milliarden Dollar auf geschätzte 143 Milliarden Dollar im Jahr 2027. Während Unternehmen momentan noch experimentieren, wird erwartet, dass sie neue auf KI basierende Geschäftsanwendungen entwickeln und KI-Anwendungen auf Edge-Netzwerke ausdehnen werden.

Diese Entwicklung bietet Energieversorgern neue Möglichkeiten, wie den schnelleren Zugriff auf Echtzeitdaten für präzisere Entscheidungen. Gleichzeitig entstehen ernsthafte Risiken, insbesondere für die Sicherheit kritischer Infrastrukturen, da generative Modelle das IT-Sicherheitsmanagement mit bisher wenig beachteten Fragen in der Cybersecurity konfrontieren.

Zwischen Logik und Moral

Künstliche Intelligenz beeindruckt durch ihre Fähigkeit, riesige Datenmengen in Sekundenbruchteilen zu analysieren und komplexe Berechnungen anzustellen. Im Gegensatz zu menschlichen Entscheidungsträgern handelt sie nicht nur schnell, sondern auch konsequent rational. Jedoch ist sie nicht in der Lage, ethische Entscheidungen zu treffen. Dieses Defizit konfrontiert Entwickler mit einem bisher unbekannten Dilemma: Sie müssen Strategien entwickeln, wie das System in moralisch heiklen Situationen agieren soll.

Beim klassischen Zugdilemma, zum Beispiel, steht die Frage im Raum, welche Lösung gewählt werden sollte. Soll die Weiche umgestellt werden, um einen Menschen auf dem Gleis zu retten, oder soll der Zug weiterfahren und die fünf Personen überrollen, die in einem Auto gefangen sind? Eine generative KI kann nicht moralisch zwischen „richtig“ und „falsch“ unterscheiden. Die Entscheidungen, die sie trifft, basieren wesentlich auf den Daten, mit denen sie trainiert wurde, und den Eigenschaften des Algorithmus – und sind somit auch anfällig für Manipulationen.

Algorithmus-Hacking

Sobald jemand einen Algorithmus entschlüsselt, ist es möglich, ihn gezielt zu manipulieren. Dies liegt beispielsweise der SEO-Optimierung zugrunde: Eine ganze Branche widmet sich dem Überlisten des Google-Algorithmus. Während dies noch als harmlos gilt, könnten Hacker in anderen Bereichen, wie dem Straßenverkehr, gefährliche Situationen herbeiführen. Zum Beispiel: Ein autonomes Fahrzeug, das eine rote Ampel erkennt, sollte normalerweise anhalten und erst bei Grün weiterfahren. Wenn jedoch Angreifer ein grünes Signal simulieren, könnte die KI das Fahrzeug trotz der realen Gefahr beschleunigen.

Energieversorger könnten ähnlich einem erhöhten Risiko durch Cyberkriminelle ausgesetzt sein. Was geschieht, wenn Hacker den intelligenten Steuerungsmechanismen einen niedrigen Energiebedarf für die bevorstehenden Stunden oder Tage vorspiegeln? Außerdem besteht stets das Risiko, dass ein Angreifer in das Unternehmensnetzwerk eindringt, auf das implementierte KI-System stößt und dadurch Schwachstellen in der Künstlichen Intelligenz aufdeckt (White-Box-Angriff).

Bei einem Black-Box-Angriff, wo der Kriminelle keinen direkten Zugang zum Netzwerk hat, könnte er Schwachstellen in einem ähnlichen System des Energieversorgungssektors aufdecken und eine spezifische Angriffsstrategie entwickeln. Diese Strategie würde er anschließend auf das Ziel-System anwenden. In solch einem Szenario könnte der Angreifer beispielsweise das interne Erkennungssystem austricksen, um unbemerkt Zugang zu einem gesicherten Bereich zu erlangen.

Manipulation von Trainingsdaten

Das Lernverhalten künstlicher Intelligenz kann beeinflusst werden: Hacker können beispielsweise Fehlfunktionen verursachen, indem sie Trainingsdaten manipulieren oder das System mit inkorrekten Informationen speisen. Der Algorithmus passt sich während des Trainings fortlaufend an, was ihm hilft, Muster zu identifizieren und Zusammenhänge herzustellen.

Das Aufdecken von Manipulationen ist äußerst schwierig, weil nicht nur ursprünglich trainierte Daten, sondern auch öffentlich zugängliche Internetdaten sowie Benutzereingaben in das Modell einfließen können. Die Rückverfolgung zu den Ausgangsdaten in selbstlernenden Systemen ist daher besonders herausfordernd. Zusätzlich besteht die Gefahr, dass Cyberkriminelle Daten aus dem KI-System extrahieren und so deren Herkunft erschließen, was Datenschutzgesetze verletzt und erhebliche Sicherheitsrisiken birgt.

Sind geschlossene Systeme sicherer?

Anwendungen, die an interne Systeme angebunden sind, leiden oft unter einem Mangel an Trainingsdaten, was das effiziente Lernen der KI behindert. Fehlen ausreichende Lernbeispiele, tendieren selbstlernende Modelle dazu, auf externe Daten auszuweichen. Dies erhöht das Risiko, dass Hacker die Trainingsdaten gezielt manipulieren könnten. Daher ist es entscheidend, dass Netzwerke nicht nur gegen Angriffe geschützt, sondern auch die Integrität der Lernprozesse sichergestellt wird.

Um eine verbesserte Cybersicherheit zu erreichen, ist der erste Schritt, sich der potenziellen Gefahren und Angriffsvektoren bewusst zu werden, bevor neue Technologien implementiert werden. Die Sicherheitsbranche entwickelt bereits seit Jahren intelligente Cyberabwehr-Tools, die Angriffe in Echtzeit erkennen und automatisiert darauf reagieren. Allerdings sind diese Tools gegenwärtig noch größtenteils machtlos gegen die Manipulation von KI-Algorithmen und Trainingsdaten. Ideal wäre es, wenn die Hersteller von KI-Technologien gleichzeitig Algorithmen entwickeln würden, die Betrugsversuche und gefälschte Eingaben identifizieren. Zusätzlich wird Kontrollsoftware benötigt, die KI vor Fehlentscheidungen schützt. Es ist zu hoffen, dass die Hersteller schnell Fortschritte machen, bevor Bedrohungsakteure die Oberhand gewinnen.

KI-Ethik-Richtlinien betreffen auch Cybersecurity

Die EU und das Bundesamt für Sicherheit in der Informationstechnologie (BSI) bemühen sich um die Schaffung einer vertrauenswürdigen Künstlichen Intelligenz (KI). Die EU-Richtlinien definieren ethische und rechtliche Grundsätze, während das BSI spezifische Sicherheitsrichtlinien für den Einsatz von KI in Deutschland festlegt.

KI-Modelle können zweifellos unterstützend sein, um Herausforderungen in vielfältigen Bereichen zu meistern. Unternehmen mit kritischer Infrastruktur müssen jedoch erkennen, dass diese Technologien aufgrund der verwendeten Daten und Trainingsmethoden auf neue Weise verwundbar sind. Daher ist es notwendig, dass sowohl die IT-Sicherheit als auch die gesetzgebenden Körperschaften und politischen Instanzen entsprechende Anpassungen vornehmen.