IT-Sicherheit

vs148/Shutterstock

Resilienz wird zu einer zentralen Anforderung

Lernende Systeme haben das Potenzial, viele Prozesse effizienter, für den Menschen komfortabler und sicherer zu machen – etwa im Straßenverkehr oder in der Arbeitswelt. Voraussetzung: Es ist gewährleistet, dass die Systeme stets verlässlich funktionieren und sicher vor Angriffen sind.

Der zunehmende Einsatz und die Entwicklung von Lernenden Systemen und Methoden der Künstlichen Intelligenz müssen auch im Kontext der fortschreitenden digitalen Vernetzung betrachtet werden. Wo die Schnittstellen zunehmen, steigt beispielsweise auch die Anzahl möglicher Angriffspunkte für Cyber-Attacken. Mit ihrer zunehmenden Verbreitung werden auch vernetzte Lernende Systeme – ähnlich wie klassische Softwareanwendungen – zu potenziellen Angriffszielen für solche Attacken.

Sicherheit (Security) ist deshalb ein wichtiges Thema. Lernende Systeme müssen robust und widerstandsfähig gegenüber Störungen, gezielten Angriffen oder unerwarteten Ereignissen sein. Resilienz wird zu einer zentralen Anforderung in der Entwicklung. Resilienz meint die Fähigkeit der Systeme, auch dann wesentliche Leistungen aufrechtzuerhalten, wenn einzelne Komponenten ausfallen oder von außen massiv gestört werden. Das ist insbesondere in sicherheitskritischen Anwendungsfeldern wichtig, etwa im Bereich der Energieversorgung. Lernende Systeme können aber auch für IT-Sicherheit und den Schutz von Privatsphäre (Privacy) eingesetzt werden: Mithilfe von Deep Learning-Methoden lassen sich beispielsweise Schwachstellen in Softwaresystemen aufspüren. Jedoch gibt es ein Dual-Use-Potenzial: Lernende Systeme könnten künftig selbst für Cyber-Attacken genutzt werden.

Für welche konkreten Anwendungen sich Lernende Systeme künftig etablieren, hängt wesentlich von ihrer Zuverlässigkeit und Betriebssicherheit (Safety) ab. Dies gilt insbesondere für Systeme, die direkt mit Personen interagieren, beispielsweise Assistenz-Roboter in der Pflege oder Fahrer-Assistenzsysteme im Bereich Mobilität. Entscheidend für ihre Akzeptanz ist, dass Lernende Systeme kein unerwünschtes Verhalten zeigen oder gar Schaden anrichten, wenn in der Praxis plötzlich ein Ereignis eintritt, das bei der Entwicklung nicht antizipiert werden konnte. Zu gewährleisten ist auch, dass der Mensch nicht nur die Ziele der Systeme vorgibt, sondern stets die Kontrolle über das System behält oder eine sichere Kontrollrückgabe stattfinden kann.

Mit Fragen zu diesen Themen beschäftigt sich in der Plattform Lernende Systeme die AG 3 unter der Leitung von Jörn Müller-Quade (KIT Karlsruhe) und Eric Hilgendorf (Universität Würzburg).