3 Fragen an

Holger Hanselka

Lenkungskreismitglied der Plattform Lernende Systeme und Präsident des Karlsruher Instituts für Technologie (KIT)

Holger Hanselka ©Andrea Fabry

Safer Internet Day: KI – Freund oder Feind?

Phishing Mails, die Passwörter entlocken, falsche Online-Aufforderungen zur Bekanntgabe von Bankdaten oder Fake News – der Safer Internet Day sensibilisiert für die Bedrohungen im Netz und von IT-Systemen. Der Hackerangriff auf den Bundestag Ende des letzten Jahres und die Cyberattacke „Wanna Cry“ auf die Deutsche Bahn im Mai 2017 sind nur zwei Beispiele für Angriffe auf die IT-Systeme von Staat und Wirtschaft. Im Jahr 2017 belief sich der durch Wirtschaftsspionage, Sabotage oder Datendiebstahl entstandene Schaden in Deutschland auf 55 Milliarden Euro, so eine Studie des Bitkom. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen im Zuge der Digitalisierung wächst deren potenzielle Verwundbarkeit durch Cyber-Angriffe. Und die rasanten Fortschritte im Bereich der Künstlichen Intelligenz (KI) und des maschinellen Lernens sorgen für eine neue Dynamik bei der IT-Sicherheit. Holger Hanselka, Lenkungskreismitglied der Plattform Lernende Systeme und Präsident des Karlsruher Instituts für Technologie (KIT) erklärt im Interview, wie KI die IT-Sicherheit verbessern kann und wo sie Einfallstore für neue Bedrohungen eröffnet.

1

Wie kann Künstliche Intelligenz Internetanwendungen sicherer machen?

Holger Hanselka: Generell gilt: Ein Schutz nur an den Außengrenzen eines komplexen IT-Systems reicht nicht aus. Denn wir müssen auch reagieren können, wenn ein Teil des IT-Systems von einem Angreifer übernommen wurde. Hierfür brauchen wir eine verlässliche Angriffserkennung und genau dort werden KI-Systeme ihr großes Potential ausspielen können und die Sicherheit substantiell erhöhen. Auch ist es möglich, IT-Systeme vorausschauend gegen Angreifer zu härten, indem man das System von KI-Systemen angreifen lässt und so Schwachstellen entdeckt, bevor es in die Anwendung geht. Aber uns muss klar sein: KI hat wie viele Technologien einen Dual-Use-Charakter. So kann die Anwendung von KI einerseits IT-Systeme „härten“. Andererseits kann das Angreifen mit KI zu einem neuen Wettlauf zwischen Angreifern und Verteidigern führen.

2

Drohen also neue Gefahren, wenn auch Cyberkriminelle Künstliche Intelligenz nutzen?

Holger Hanselka: Genau, denn selbstverständlich setzen auch die „Gegner“ KI ein und es werden hier zwei Effekte auftreten. KI-Systeme können völlig neue Verwundbarkeiten aufdecken und Angriffe erkennen. Gleichzeitig werden aufwendige Angriffe, die bisher nur menschliche Experten durchführen können, in Zukunft automatisiert von statten gehen und so in viel größerer Zahl vorkommen. Ich denke hier vor allem an das Social Engineering. Hier geht es darum, Menschen durch geschickte Täuschung zu veranlassen etwa ihre Bankdaten preiszugeben. KI-Systeme können ebenso maßgeschneiderte Phishing-Mails automatisieren, wie in echt wirkenden Telefonanrufen vortäuschen, Menschen zu sein, denen man dringend das Passwort geben muss. Aber Social Engineering wird, weiter gefasst, auch gezielte Beeinflussung durch Halbwahrheiten oder Fake News umfassen. Hier ist es besonders beunruhigend, dass KI-Systeme schon automatisiert Video- und Audiodateien verfälschen können, Menschen aber das, was man sieht oder hört, als sehr glaubwürdig empfinden.

3

Welche Herausforderungen sind zu meistern, um das Potenzial der Künstlichen Intelligenz für die IT-Sicherheit auszuschöpfen?

Holger Hanselka: Bei der IT-Sicherheit wollen wir belastbare Garantien geben. Daher können wir IT-Sicherheit nicht einfach ausprobieren, da man die Absichten und den Plan eines intelligenten Angreifers nicht vorausahnen kann. Eines der Probleme, die es beim Einsatz von KI gibt, ist, dass wir bisher nicht verstehen, warum eine KI dies oder jenes tut. Hier brauchen wir dringend weitere Forschung und Fortschritte in dieser Frage, bevor man sich auf KI-Systeme in kritischen Entscheidungen verlassen kann. Eine Kombination aus klassischen Algorithmen und KI könnte ein Weg sein, bei der die Algorithmen die Vorschläge der KI überprüfen. Eine weitere Möglichkeit wären KI-Systeme, die nicht nur Entscheidungen ausgeben, sondern auch den Grund für die Entscheidung nennen.

Zurück