Zur Navigation springen Zum Hauptinhalt springen Zum Footer springen
Prof. Dr. Konrad Rieck | Professor für Computer Science an der TU Berlin und BIFOLD © Kevin Fuchs FOTOGRAFIE

Agentische KI: Zwischen FOMO und Sicherheitsrisiken

In der Psychologie spricht man von FOMO (Fear of Missing Out), der Angst, etwas Wichtiges zu verpassen. Mit agentischer KI stehen wir vor dem nächsten Sprung intelligenter Technologie, den es nicht zu verpassen gilt. Indem wir großen Sprachmodellen eigene Werkzeuge an die Hand geben und sie selbstständig durch unsere digitale Welt navigieren lassen, erhoffen wir uns neue Sphären der Produktivität. In diesen Sphären werden nicht nur völlig automatisch E-Mails beantwortet und Termine koordiniert, sondern KI-Agenten betreuen Kunden, führen Recherchen durch und entwickeln neue Produkte. Allein der Gedanke, diese Aufgaben an eine KI durchzureichen, ist verlockend und beflügelt die Fantasie.

Wo und wie sich diese Erwartungen erfüllen, ist derzeit offen. Klar ist allerdings schon jetzt: Bei agentischer KI sind elementare Sicherheitsprobleme ungelöst. Seit Jahrzehnten gilt in der Informatik das Prinzip, Daten und Anweisungen voneinander zu trennen, um Angriffsflächen zu minimieren. KI-Agenten werfen diesen Grundsatz einfach über den Haufen. Sie wissen nie genau, ob sie gerade Daten einlesen oder neue Instruktionen erhalten. Ein „Halt, Stopp, jetzt red’ ich!“ ist sowohl Zitat als auch mögliche Anweisung. Bisher haben wir keine verlässlichen Mechanismen gefunden, um dies zu verhindern. So kann eine manipulierte E-Mail, ein präpariertes Dokument oder eine harmlos wirkende Webseite KI-Agenten aus dem Tritt bringen und schädliche Aktionen auslösen.

Wer beispielsweise einen KI-Agenten auf seine E-Mails loslässt, gleicht einem Hausbesitzer, der einem Fremden den Schlüssel gibt und hofft, dass dieser nur die Blumen gießt. Der Agent hat Zugriff auf sensible Daten, kann in unserem Namen kommunizieren und Entscheidungen treffen. Wir haben dabei keine Garantie, dass er bei seinen Aufgaben bleibt. Prompt Injection, das gezielte Einschleusen von Anweisungen über manipulierte Inhalte, macht aus einem hilfreichen Assistenten im Handumdrehen einen Komplizen, der als verlängerter Arm eines Angreifers Schaden anrichtet.

Diese Sicherheitsprobleme lassen sich nicht ignorieren. Anstatt FOMO sollte uns eine bewusste Abwägung leiten. Welche Anwendungsfälle rechtfertigen ein Sicherheitsrisiko? Wo lassen sich Agenten so einsetzen, dass Fehler korrigierbar bleiben? Welche Schäden sind wir bereit, in Kauf zu nehmen? Keine dieser Fragen ist leicht zu beantworten, und unsere Hoffnungen können schnell enttäuscht werden. Es wird große Anstrengungen in der Forschung und Praxis brauchen, um Potenzial und Sicherheit für agentische KI in Einklang zu bringen. Doch verantwortungsvoller Fortschritt bedeutet auch, Technologie dann einzusetzen, wenn wir sie beherrschen — und nicht, wenn wir fürchten, sie zu verpassen.

März 2026