Regeln für Künstliche Intelligenz
KI-Anwendungen bieten viele Chancen für die Gesellschaft und Wirtschaft, können jedoch auch mit Risiken verbunden sein. Welche Regeln braucht KI, damit Entwicklung und Einsatz der Technologie vertrauenswürdig werden?

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie für die Zukunftsfähigkeit unserer Wirtschaft und Gesellschaft. In der Medizin zum Beispiel werden mithilfe von KI Diagnosen präziser, Mobilität kann sicherer und unternehmerisches Handeln nachhaltiger gestaltet werden. Doch zugleich bergen KI-Systeme auch Risiken. Wenn KI-Systeme im autonomen Fahrzeug oder in der Arztpraxis fehlerhaft sind, können Menschen zu Schaden kommen. KI-Lösungen im Dienst von Personalabteilungen könnten bei der Vorsortierung von Bewerbungen weibliche Kandidatinnen benachteiligen, weil der Algorithmus mit Daten überwiegend männlicher Bewerber trainiert wurde.
Wie können wir sichere und vertrauenswürdige KI-Systeme gestalten? Welche Regeln für Entwicklung und Einsatz von KI brauchen wir, um die Risiken zu minimieren? Und was ist das richtige Maß an Regulierung, um wettbewerbsfähige KI-Innovationen aus Europa zu unterstützen?

Vertrauenswürdige KI
Wann sind KI-Anwendungen vertrauenswürdig? Regeln für den Einsatz der Technologie müssen europäische Werte und vielfältige Anwendungen berücksichtigen.

Formen der Regelsetzung
Regeln für den Einsatz von KI können als freiwillige Selbstverpflichtungen und staatliche Normen formuliert werden.

Der AI Act der EU
Die EU schafft gemeinsam mit ihren Mitgliedsstaaten ein wertegeleitetes Regelwerk für die Entwicklung und den Einsatz von KI.

Die Normungsroadmap des DIN
Das Deutsche Institut für Normung (DIN) hat Handlungsempfehlungen für gemeinsame Standards erarbeitet, wie KI vertrauenswürdig entwickelt und eingesetzt werden kann.