KI in Europa: Wie positionieren wir uns im globalen Wettbewerb?
Milliardenschwere Investitionen in den USA, ein überraschend leistungsfähiges KI-Modell aus China: Die Dynamik im Bereich der Künstlichen Intelligenz ist aktuell rasant. Wo steht Europa und wie können wir uns künftig international behaupten? Expertinnen und Experten der Plattform Lernende Systeme geben eine Einordnung.
Die Ankündigung milliardenschwerer Investitionspakte für KI-Infrastruktur in den USA (Stargate) und günstige, leistungsfähige Sprachmodelle aus China (Deepseek) bringen neue Dynamik in den Markt für Künstliche Intelligenz. Deutschland und Europa stehen angesichts der aktuellen Entwicklungen vor großen Herausforderungen. Es bieten sich aber auch Chancen, im internationalen Wettbewerb um KI-Spitzentechnologie vorne mitzuspielen. Mit der Initiative „InvestAI“ hat die EU ein 200 Mrd. EUR Investitionspakt für KI ins Leben gerufen, das unter anderem sogenannte KI-Gigafabriken finanzieren und technologische Souveränität für Europa sichern soll. Kurz darauf kündigte die EU-Kommission an, bis 2027 insgesamt 1,3 Mrd. EUR in Künstliche Intelligenz, Cybersicherheit und digitale Kompetenzen zu investieren. Welche Möglichkeiten sich für Deutschland und Europa ergeben und wie sich die vorhandenen Potenziale in Forschung, Entwicklung und Anwendung gezielt nutzen lassen – dazu haben wir Expertinnen und Experten der Plattform Lernende Systeme befragt.
Ute Schmid
Universität Bamberg | bidtKatharina Morik
Technische Universität Dortmund | Lamar InstitutKristian Kersting
Technische Universität DarmstadtMarius Lindauer
Leibniz Universität HannoverGitta Kutyniok
Ludwig-Maximilians-Universität MünchenTim Gutheit
Infineon Technologies AGVolker Tresp
Ludwig-Maximilians-Universität MünchenAlexander Löser
Berliner Hochschule für Technik (BHT)Anne Lauber-Rönsberg
TU DresdenCorina Apachiţe
AUMOVIO SERuth Janal
Universität BayreuthChristoph M. Schmidt
RWI – Leibniz-Institut für Wirtschaftsforschung
Generative KI und menschliches Fachwissen müssen sinnvoll interagieren.
„Menschliches Fachwissen und die Fähigkeit, generierte Inhalte kritisch zu bewerten und zu korrigieren, sind unverzichtbar. Wir müssen sicherstellen, dass generative KI und menschliches Fachwissen in einem Co-Creation-Prozess sinnvoll zusammenwirken, um die Zuverlässigkeit und Qualität der generierten Inhalte zu gewährleisten.“
Prof. Dr. Ute Schmid | Universität Bamberg / Bayerisches Forschungsinstitut für digitale Transformation
Keine andere Technologie hat jemals so viele Innovationen in der Grundlagenforschung, Technologieentwicklung und neuen Anwendungen gleichzeitig hervorgebracht wie die generative KI. Neue Entwicklungen in der Forschung sehe ich insbesondere in der Kombination von Large Language Models (LLMs) mit klassischen KI-Methoden: Agente LLMs nutzen Methoden aus dem Bereich der Multi-Agenten-Systeme, die es ermöglichen, komplexe Aufgaben zielorientiert und dynamisch zu lösen. Retrieval Augmented Generation (RAG) kombiniert LLMs mit wissensbasierten Methoden, wodurch die Genauigkeit und Robustheit der generierten Inhalte erhöht werden kann.
Ich freue mich, dass es zunehmend leistungsfähige europäische und deutsche Sprachmodelle gibt, die eine größere Unabhängigkeit von US-amerikanischen und chinesischen Unternehmen ermöglichen. Modelle wie das französische Mistral und das deutsche Teuken-7B sind zudem Open Source, mehrsprachig und entsprechen den europäischen Datenschutzrichtlinien. Zu den wichtigsten Herausforderungen zählen der steigende Energiebedarf und der Rückgang der Qualität der generierten Inhalte. Der beobachtete Rückgang der Zuverlässigkeit und Qualität ist insbesondere darauf zurückzuführen, dass zunehmend mehr generierte Inhalte, die nicht von Menschen überprüft wurden, in die Modelle einfließen.
Während 2024 ein starkes Wachstum bei der Nutzung generativer KI im Marketing und in der Kundenkommunikation zu verzeichnen war, hoffe ich, dass 2025 weitere Entwicklungen in den Bereichen Produktion, Wissenschaft und Softwareentwicklung zu sehen sein werden. Aktuelle Forschungen auf dem Gebiet der Large Action Models (LAMs) könnten dazu beitragen, dass Roboter und komplexe Systeme mit natürlicher Sprache gesteuert werden können. Wissenschaftliche LLMs können zu hilfreichen Werkzeugen in der Forschung werden, beispielsweise in der Arzneimittelentwicklung.
In einem aktuellen Projekt am Bayerischen Institut für digitale Transformation (bidt) untersuchen wir LLMs zur Generierung von Code aus natürlichen Sprachspezifikationen. Die Herausforderung besteht dabei einerseits darin, die Qualität des generierten Codes zu bewerten, andererseits befassen wir uns mit dem Problem des möglichen Kompetenzverlusts bei Informatikstudierenden. Wir müssen sicherstellen, dass generative KI und menschliches Fachwissen in einem Co-Creation-Prozess sinnvoll zusammenwirken. Die Tatsache, dass von einem System generierte Inhalte ohne menschliche Überprüfung von einem anderen generativen KI-System verwendet oder bewertet werden, kann zu einer gefährlichen und absurden Realitätsferne führen.
Bei hochspezialisierten Produkten wie Maschinensteuerungssystemen, Medikamenten oder Programmcode kann eine kritische Überprüfung der generierten Inhalte nur erfolgen, wenn die Prüfer selbst über hohe Kompetenz in dem jeweiligen Fachgebiet verfügen. Dementsprechend gewinnen neue didaktische Konzepte in allen Studiengängen an Bedeutung, die den Erwerb von Kompetenzen im Umgang mit generativen Tools sinnvoll unterstützen. Menschliches Fachwissen und die Fähigkeit, generierte Inhalte kritisch zu bewerten und zu korrigieren, sind unverzichtbar. Dies stellt eine enorme Herausforderung für unser Bildungssystem dar.
Europa braucht ein starkes Netzwerk von KI-Zentren
„Wenn Europa nun die Dringlichkeit einer deutlichen Verbesserung und Erweiterung des Netzwerks von KI-Zentren in Europa erkennt und in personelle und rechnerische Ressourcen investiert, könnte der Traum, den die meisten KI-Forscher wahrscheinlich schon seit langem hegen, wahr werden und Europa könnte sich zwischen den USA und China gut positionieren.“
Prof. Dr. Katharina Morik | TU Dortmund/Lamarr-Institut
Deutschland und Europa sind in der Forschung sehr gut aufgestellt. Das gilt für das gesamte Spektrum des maschinellen Lernens. In Deutschland wurde gerade das Open-Source-Sprachmodell (LLM) Teuken-7B veröffentlicht, das für alle europäischen Sprachen trainiert wurde. Aber LLMs sind nicht alles. Ich sehe sie als Schnittstelle zu vielen verschiedenen Diensten. So wie das Internet erst dank der WWW-Schnittstelle und das Smartphone dank seines einheitlichen „App”-Designs den Durchbruch geschafft haben, sehe ich auch LLMs als Wegbereiter für viele Anwendungen. Besonders spannend sind Ansätze, die über LLM Aktionssysteme auslösen – von Robotern im engeren Sinne bis hin zu automatischen Experimenten. Diese optimieren das maschinelle Lernen selbst, bieten aber auch praxisrelevante Anwendungen, insbesondere in der Medizin und Chemie.
Deutsche Unternehmen zögern noch, wenn es um die kommerzielle Umsetzung geht, obwohl sie enorm vom Einsatz von KI profitieren könnten. Ihre Daten sind eine Fundgrube, die bei entsprechender Aufbereitung zu besseren großen LLMs für Anwendungen führen kann. Hier könnte Europa gegenüber den USA und China punkten.
Deutschland ist besonders bekannt für Federated Learning, auch bekannt als Edge-KI. Edge-KI bietet insbesondere in der Produktion und Logistik einen unschätzbaren Vorteil. Eingebettete Systeme nutzen maschinelles Lernen, sodass Daten direkt vor Ort in Echtzeit erfasst und zur Optimierung von Maßnahmen genutzt werden können. Dies erfordert ressourcenschonende Algorithmen und die Integration von Computerarchitekturen im Sinne eines Software-Hardware-Co-Designs.
Open Source ist wichtig für den Entwicklungsfortschritt. Aber nicht, wenn es um Daten geht. Europa und insbesondere Deutschland sollten ihre Daten genau im Auge behalten. Dank seiner Mehrsprachigkeit und starken industriellen Produktion hat Europa – und Deutschland – einen entscheidenden Vorteil, den wir nicht aufgeben sollten.
Der AI Act kann ein Alleinstellungsmerkmal sein, das für EU-Produkte spricht. Deutschland und Europa sind in Bezug auf die Erklärbarkeit und Vertrauenswürdigkeit von KI sehr gut aufgestellt. Jetzt kommt es darauf an, Zertifizierungen schnell und praxisnah umzusetzen. Es gibt bereits sehr gut entwickelte Prozessmodelle für Unternehmen, beispielsweise am Fraunhofer IAIS. Es gibt Bibliotheken für Robustheit oder Energiebewertung für die einzelnen Schritte in diesem Prozess. Für die automatische Generierung von Tests für trainierte Modelle und die verständliche Darstellung von Testergebnissen gibt es beispielsweise das Care Label Framework des Lamarr Institute. Hier ist eine weitere Skalierung wichtig und damit die Entwicklung vieler Best-Practice-Beispiele.
Die Förderung des maschinellen Lernens erfordert bessere Strukturen.
Die Idee, ein europäisches Netzwerk für Talente aufzubauen, ist nicht neu. Sie begann mit den Exzellenznetzwerken, in denen sich Labore für maschinelles Lernen zu gezielten Diskussionen über Forschungsthemen, Projekte, Lehre und Ausbildung treffen konnten – beispielsweise beim ECML und später beim ECMLPKDD. Die Exzellenznetzwerke waren ein Katalysator für den Aufbau einer Gemeinschaft.
Der nächste Schritt war die Idee der Zentren für maschinelles Lernen. Jedes Zentrum vereint exzellente Forschung, internationale Vernetzung, Best Practices, Graduiertenschulen und Computerressourcen für Experimente. Eine enge Zusammenarbeit mit Unternehmen soll neue industrielle Anwendungen und Start-ups inspirieren. Hier werden auch Talente ausgebildet und in vielfältigen Karrieren als Spitzenkräfte gefördert – nicht zuletzt durch gute unbefristete Arbeitsverträge. Die Vernetzung dieser Hubs wird den Austausch von Studierenden und Dozenten erleichtern, die Zusammenarbeit in der Forschung fördern und den Austausch von Algorithmen, Codes und Daten ermöglichen. Diese Idee wurde 2018 mit den KI-Zentren in Deutschland und Frankreich ins Leben gerufen.
Allerdings behindern verschiedene Rahmenbedingungen weitere Fortschritte, noch bevor die eigentlichen Ziele erreicht sind: Einerseits müssen ausreichende Computerressourcen für den weiteren Ausbau der Hubs zur Verfügung stehen, und diese müssen in einer Vielzahl von Computerarchitekturen verfügbar sein, die experimentelle Umgebungen ermöglichen. Die Integration in vernetzte Hubs wäre das viel gepriesene CERN der KI.
Andererseits wird die Einbindung von Unternehmen für Best-Practice-Studien und die Förderung von Start-ups nicht ausreichend unterstützt und ist im Antragsverfahren zu fragmentiert. Hier sind langfristige Perspektiven und entsprechende Positionen erforderlich. Dies gilt auch für Schulungen in Unternehmen, Schulen und Ausbildungswerkstätten, die zum Aufgabenbereich eines Hubs gehören. AI.NRW ist ein Beispiel für eine Anlaufstelle, die es bereits an vielen Orten gibt – allerdings oft nur als temporäre Einzelprojekte.
Schließlich müssen die internationalen und regionalen Netzwerke, die jeder Hub aufgebaut hat, angemessen und agil gefördert werden. Es geht um mehr als nur nette Treffen und Fotos für die Presse!
Wenn Europa nun die Dringlichkeit einer deutlichen Verbesserung und Erweiterung des Netzwerks von KI-Zentren in Europa versteht und in personelle und rechnerische Ressourcen investiert, könnte der lang gehegte Traum der meisten KI-Forscher wahr werden und Europa sich zwischen den USA und China gut positionieren.
Die Zukunft der KI liegt nicht in Gigantomanie, sondern in Vernunft
„Der KI-Wettbewerb ist noch nicht entschieden. Es liegt an Deutschland und Europa, eine Strategie zu verfolgen, die nicht nur auf kurzfristige Effekte durch Skalierungen setzt, sondern auf nachhaltige, durchdachte und langfristig tragfähige KI-Technologien.“
Prof. Dr. Kristian Kersting | TU Darmstadt/hessian.AI/DFKI
Deep Learning hat in den letzten zehn Jahren bahnbrechende Fortschritte in der Künstlichen Intelligenz ermöglicht. Dennoch weisen heutige KI-Systeme erhebliche Schwächen auf: Sie erfordern enorme Rechenressourcen, was zu einer Marktdominanz weniger großer Unternehmen führt. Zudem fehlt ihnen die Fähigkeit zum logischen Denken und zur flexiblen Anpassung an unbekannte Situationen. Statt kontinuierlich zu lernen, müssen sie aufwendig nachtrainiert und angepasst werden. Ein treffendes Zitat von Alan Kay, dem Turing-Preisträger und Erfinder der objektorientierten Programmierung, bringt die Problematik großskaliger KI-Modelle auf den Punkt: „Sie gleichen einer ägyptischen Pyramide, aufgebaut aus Millionen von Steinen, übereinandergeschichtet ohne strukturelle Integrität – errichtet mit purer Gewalt und Tausenden von Sklaven.“ Dies offenbart die fundamentale Schwäche der gegenwärtigen KI-Entwicklung: Sie beruht auf schierer Rechenleistung statt auf echter struktureller Intelligenz.
Doch die jüngsten Entwicklungen rund um DeepSeek verdeutlichen, dass der technologische Wettlauf noch nicht entschieden ist. Die Zukunft der Künstlichen Intelligenz liegt nicht in der reinen Skalierung, sondern in einer „vernünftigen” KI. Ansätze wie Test-Time Compute und Mixture-of-Experts zeigen, dass die wahre Chance in der Entwicklung flexibler, adaptiver und ressourcenschonender KI-Systeme liegt. Auch wir Menschen denken situationsabhängig und effizient: Für einfache Fragen wie „Was ist 2+2?“ antworten wir direkt, ohne großen Aufwand. Doch bei komplexen Fragen, etwa zur wirtschaftlichen Auswirkung des Klimawandels, halten wir inne, sammeln Fakten und verknüpfen verschiedene Aspekte, bevor wir eine fundierte Antwort formulieren.
Vernünftige KI ermöglicht die intelligente Kombination verschiedener KI-Methoden zu multiparadigmatischen Systemen. Vernünftige KI-Systeme nutzt eine angemessene Menge an Ressourcen und basiert auf hochwertigen Daten. Sie ist nicht nur leistungsfähig, sondern auch in der Lage, sich an neue Situationen anzupassen. Ähnlich wie ein köstlicher Kuchen nicht nur durch viele Zutaten (Daten) und einen großartigen Backofen (Modell und Infrastruktur) entsteht, sondern durch ein durchdachtes Rezept (das Zusammenspiel intelligenter Algorithmen), müssen auch KI-Systeme sinnvoll orchestriert werden.
Deutschland und Europa haben in dieser Entwicklung große Chancen. Während Firmen in den USA und China aktuell auf Skalierung setzen, könnte Europa mit einer „vernünftigen” KI einen eigenen Weg beschreiten. Eine solche Strategie wäre nicht nur wirtschaftlich sinnvoll, sondern würde auch der wachsenden Kritik an den ökologischen und sozialen Kosten der KI-Industrie Rechnung tragen. Der steigende Energieverbrauch von Rechenzentren ist längst nicht mehr zu ignorieren. Gleichzeitig zeigt sich, dass nicht nur riesige Sprachmodelle, sondern auch spezialisierte KI-Algorithmen enormen Nutzen in Wissenschaft, Medizin und Industrie bringen. Hier könnten europäische Unternehmen und Forschungseinrichtungen mit innovativen, hochspezialisierten Technologien punkten.
Investitionen sollten gezielt in Schlüsselbereiche wie neurosymbolische KI, adaptive Lernverfahren und hybride Modelle gelenkt werden. Die Kombination aus symbolischen Systemen und neuronalen Netzen verbessert Erklärbarkeit und Nachvollziehbarkeit von KI-Entscheidungen – essenziell für regulatorische Anforderungen und gesellschaftliche Akzeptanz. Multimodale Systeme, die verschiedene Datenquellen verknüpfen, bieten zudem vielversprechende Möglichkeiten. Die Zukunft liegt in der intelligenten Kombination bestehender Technologien, um ressourcenschonend zu besseren Ergebnissen zu kommen.
Der KI-Wettbewerb ist noch nicht entschieden. Es liegt an Deutschland und Europa, eine Strategie zu verfolgen, die nicht nur auf kurzfristige Effekte durch Skalierungen setzt, sondern auf nachhaltige, durchdachte und langfristig tragfähige KI-Technologien. Die Zukunft der KI liegt nicht in Gigantomanie, sondern in Vernunft.
Potenziale Mensch-zentrierter und nachhaltiger KI zum Wohl der Gesellschaft nutzen
„Wir sollten eine führende Rolle in der Entwicklung und Anwendung von mensch-zentrierter und nachhaltiger KI einnehmen. Durch die Kombination von exzellenter Forschung, einer starken Industrie und einem Fokus auf Ethik und Nachhaltigkeit kann Deutschland zu einem Vorreiter im Bereich der KI werden.“
Prof. Dr. Marius Lindauer | Leibniz Universität Hannover
Künstliche Intelligenz (KI) ist eine der transformativsten Technologien unserer Zeit. Sie birgt das Potenzial, unser Handeln, unsere Wirtschaft, unsere Wissenschaft und unsere Gesellschaft grundlegend zu verändern. Als Professor für Maschinelles Lernen beschäftigt mich die Frage, wie wir das Potenzial der KI, insbesondere im Hinblick auf Demokratisierung von KI (durch AutoML), mensch-zentrierter KI und Nachhaltigkeitsaspekte, in Deutschland, Europa und auch weltweit bestmöglich nutzen können.
Meine Vision für die Zukunft der KI in Deutschland und Europa ist eine Gesellschaft, in der KI-Technologien verantwortungsvoll und zum Wohl aller eingesetzt werden. Wir sollten eine führende Rolle in der Entwicklung und Anwendung von mensch-zentrierter KI und nachhaltiger KI einnehmen. Durch die Kombination von exzellenter Forschung, einer starken Industrie und einem Fokus auf Ethik und Nachhaltigkeit kann Deutschland zu einem Vorreiter im Bereich der KI werden.
Um diese Vision zu verwirklichen, ist eine nationale KI-Strategie erforderlich, die die oben genannten Ziele in den Vordergrund stellt und mit wachstumsbeschleunigenden Maßnahmen flankiert. Die Politik muss noch mehr die notwendigen Rahmenbedingungen schaffen, z.B. durch die stärkere Förderung von KI-Ökosystemen (bspw. für die schnelle Entwicklung von KI-Anwendungen durch AutoML) und eine Weiterentwicklung von ethischen Leitlinien für den Einsatz von KI. Die Wirtschaft muss in KI-Forschung und -Entwicklung in der Breite investieren und KI-Lösungen in ihre Produkte und Dienstleistungen integrieren. Gleichzeitig muss die Gesellschaft die Chancen und Herausforderungen der KI verstehen, und aktiv an der Gestaltung der KI-Zukunft mitwirken.
Aktuelle Dynamik der KI-Forschung und -Entwicklung
Fortschritte im Skalieren von KI, insbesondere Maschinelles Lernen auf Grundlage von neuronalen Netzen wie Transformern, hat in den letzten Jahren zu beeindruckenden Ergebnissen in Bereichen wie der Bilderkennung, der Sprachverarbeitung und der Robotik geführt. Große Sprachmodelle, wie ChatGPT, Llama, Gemini oder Le Chat von Mistral, haben gezeigt, dass KI in der Lage ist, menschenähnliche Texte zu generieren und erstaunlich komplexe Aufgaben zu lösen.
Die Popularität und Bedeutung von AutoML ist in den letzten Jahren durch verschiedene open-source Packages und Cloud-Services stark gestiegen. Während es noch vor ein paar Jahren eines der Hypethemen war, sieht man, dass es nun in den Produktivitätsumgebungen angekommen ist. AutoML ermöglicht es, die Entwicklung von KI-Modellen zu automatisieren und damit die Effizienz in der Entwicklung zu steigern. Es unterstützt Entwicklerinnen und Entwickler mit wenig KI-Fachwissen ebenso wie hochqualifizierte KI-Experten, mühsame und aufwendige Aufgaben zu automatisieren, um schneller, bessere Lösungen zu finden.
Ein wichtiger Aspekt und Trend, den die Forschung in Deutschland darüber hinaus im Fokus hat, ist die Mensch-zentrierte KI. Sie stellt den Menschen in den Mittelpunkt der KI-Entwicklung und zielt darauf ab, KI-Systeme zu schaffen, die transparent, nachhaltig und nutzerfreundlich sind. Mensch-zentrierte KI erfordert ein Umdenken in der KI-Entwicklung, weg von der reinen Automatisierung hin zur Augmentierung und Erweiterung menschlicher Fähigkeiten. Auch im Sinne des europäischen Werteverständnis ist das der Weg, den KI in Zukunft nehmen muss.
Deutsche KI-Forschung im internationalen Vergleich
Im internationalen Vergleich ist die KI-Forschung in Deutschland gut aufgestellt, insbesondere im Bereich der Grundlagenforschung. Deutschland belegt bei der Anzahl der KI-Publikationen einen Spitzenplatz im Verhältnis zu der Anzahl an Forschenden. Deutschland hat eine lange Tradition in der KI-Forschung und verfügt über exzellente Universitäten und Forschungsinstitute, wie die KI-Exzellenzzentren, aber auch andere starke Zentren, wie hessian.ai, das KI-Zentrum an der RWTH Aachen oder das L3S KI-Zentrum in der Region Hannover und Braunschweig. In Deutschland wird zudem ein Fokus auf die ethischen und nachhaltigen Aspekte von KI gelegt, was essenziell sein wird, damit KI in der Breite auf Akzeptanz stoßen wird. Darüber hinaus verfügt Deutschland über eine starke Industrie und eine führende Position im Medizinsektor - Bereiche, in denen KI-Lösungen schon heute eingesetzt werden. In diesen Sektoren hat Deutschland im Vergleich zu den USA und China Vorteile, da hier große Mengen an Daten und Expertise vorhanden sind. Dieses Potenzial gilt es zu heben.
Dagegen zeigen sich die Schwächen Deutschlands im internationalen Vergleich vor allem bei Investitionen, Risikobereitschaft und Bürokratie. Im Vergleich zu den USA und China investiert Deutschland weniger in KI-Forschung und -Infrastruktur. Darüber hinaus ist die deutsche Kultur zu oft von einer hohen Risiko- und Fehleraversion geprägt, was die Entwicklung und Anwendung von KI-Innovationen hemmt. Und nicht zuletzt erschwert die Bürokratie in Deutschland die Gründung und das Wachstum von KI-Startups.
Vor allem müssen die Investitionen in KI-Forschung und -Entwicklung deutlich erhöht werden, um international Schritt halten zu können, beispielsweise durch die Förderung von KI-Clustern und die Bereitstellung von Risikokapital für KI-Startups. Auch die Aus- und Weiterbildung im Bereich KI müssen disziplinübergreifend in allen Fachbereiten ausgebaut werden, um den Bedarf an KI-Experten zu decken. Letztendlich müssen auch die ethischen und nachhaltigen Aspekte von KI in allen Phasen der Entwicklung und Anwendung berücksichtigt werden. Dies kann zum Beispiel durch die weitere Entwicklung und Umsetzung von KI-Standards und die Förderung von Forschung im Bereich der ethischen und nachhaltigen KI geschehen.
Das Potenzial von AutoML, Mensch-zentrierter KI und Nachhaltigkeit nutzen
Um im weltweiten KI-Wettrennen nach vorne zu kommen, sollte Deutschland gezielte Maßnahmen ergreifen und seine Potenziale richtig nutzen. Automatisiertes Maschinelles Lernen (AutoML), Mensch-zentrierte KI und Nachhaltigkeit sind wichtige Aspekte der KI-Zukunft in Deutschland.
AutoML kann die Entwicklung von KI-Modellen beschleunigen und vereinfachen, was insbesondere für kleine und mittlere Unternehmen von Vorteil ist, da nicht riesige KI-Teams aufgebaut werden müssen. Durch die Automatisierung von Aufgaben wie der Modellauswahl und der Hyperparameteroptimierung können Unternehmen KI-Lösungen schneller und kostengünstiger entwickeln und einsetzen.
Mensch-zentrierte KI stellt sicher, dass KI-Systeme den Bedürfnissen und Werten der Menschen entsprechen und zu einer Verbesserung der Lebensqualität beitragen, sowohl auf der Basis des Individuums, als auch für die gesamte Gesellschaft. Anstatt Menschen durch Maschinen zu ersetzen, geht es darum, KI-Systeme zu entwickeln, die menschliche Fähigkeiten ergänzen und erweitern.
Nachhaltige KI-Lösungen können dazu beitragen, die ökologischen, ökonomischen und sozialen Herausforderungen unserer Zeit zu bewältigen. KI kann z.B. eingesetzt werden, um den Energieverbrauch zu optimieren, die Ressourceneffizienz zu steigern und nachhaltige Lieferketten zu schaffen.
Die Zukunft der KI in Deutschland ist vielversprechend. Durch gezielte Maßnahmen und die Nutzung des Potenzials von AutoML, Mensch-zentrierter KI und Nachhaltigkeit kann Deutschland im weltweiten KI-Wettrennen eine führende Rolle einnehmen und die KI-Technologie zum Wohl der Gesellschaft einsetzen. Eine nationale KI-Strategie, die die Zusammenarbeit von Politik, Wirtschaft und Gesellschaft fördert, ist der Schlüssel zur Verwirklichung dieser Vision. Nur durch gemeinsames Handeln können wir sicherstellen, dass KI in Deutschland verantwortungsvoll und zum Nutzen aller eingesetzt wird.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Potenziale Mensch-zentrierter und nachhaltiger KI zum Wohl der Gesellschaft nutzen
Europa hat mit dem AI Act ein großes Regelwerk verabschiedet. Haben wir uns damit Fesseln angelegt oder können wir die Leitplanken zu einem Standortvorteil umwandeln? Welche Anforderungen stellen sich aus juristischer und unternehmerischer Sicht?
Dr. Corina Apachiţe | AUMOVIO SE
Die Europäische Union (EU) hat mit dem AI Act einen eigenen Weg gewählt, um KI zu regulieren. Was bedeutet das für global operierende Unternehmen wie AUMOVIO SE?
Corina Apachiţe: Mit dem AI Act hat die Europäische Union einen klaren Rahmen für den Einsatz von Künstlicher Intelligenz geschaffen. Für global operierende Zulieferer in der Automobilbranche bedeutet das vor allem eines: Die Zusammenarbeit mit OEMs muss noch enger werden. Klare Dokumentationspflichten, Konformitätserklärungen und gegebenenfalls gemeinsame Risikoanalysen setzen eine abgestimmte Vorgehensweise entlang der gesamten Lieferkette voraus.
Gleichzeitig bietet der AI Act die Chance, sich über regelkonforme und vertrauenswürdige KI-Lösungen einen Wettbewerbsvorteil zu verschaffen. Unternehmen, die frühzeitig in die Umsetzung investieren, sichern sich nicht nur den Zugang zum europäischen Markt, sondern senden auch ein starkes Signal an Kunden, Partner und Investoren: Sie stehen für Sicherheit, Qualität und Zukunftsfähigkeit. Die Automobilbranche bringt dabei gute Voraussetzungen mit, sie verfügt bereits über etablierte Standards im Bereich der funktionalen Sicherheit. Den noch stehen international agierende Zulieferer vor der Herausforderung, mit unterschiedlichen regulatorischen Anforderungen in verschiedenen Märkten umzugehen. Flexible Governance-Strukturen werden damit zum Schlüssel, um regulatorische Fragmentierung effizient zu managen und Innovationen weltweit rechtssicher umzusetzen.
Die Europäische Union hat mit der KI-Verordnung einen Sonderweg gewählt, um KI zu regulieren. Welche Auswirkungen hat das aus juristischer Perspektive?
Ruth Janal: Es ist richtig, dass die KI-Verordnung ein international bislang einzigartiges Regulierungsinstrument für sogenannte Künstliche Intelligenz darstellt. Aber auch in vielen anderen Ländern gibt es regulatorische Initiativen. China setzt eher auf spezifische, zielgerichtete administrative Richtlinien, zum Beispiel für generative KI. In den USA verfolgt die Trump- Regierung zwar prinzipiell einen „hands off“-Ansatz, will aber gleichwohl einen AI Action Plan entwerfen und umsetzen. Die teilweise verbreitete Vorstellung, in den USA und China ansässige Entwickler von KI-Systemen müssten sich nicht an das Unionsrecht halten, ist allerdings falsch. Die KI-Verordnung verfolgt ein sogenanntes Marktort-Prinzip, findet also Anwendung auf die Entwickler jeglicher KI, die in den Europäischen Binnenmarkt eingeführt oder dort genutzt werden soll. Ebenso wie physische Produkte, die aus Drittstaaten in die Union eingeführt werden, müssen sich auch KI-Systeme an den europäischen Sicherheitsvorschriften orientieren. Oft wird zudem ein wichtiger Vorteil der KI-Verordnung übersehen: Sie verhindert, dass in verschiedenen Mitgliedstaaten unterschiedliche Regelungen für die Entwicklung und Verwendung von KI-Systemen eingeführt werden.
Wie bewerten Sie den risikobasierten Ansatz des AI Act? Ist dieser im Hinblick auf die Dynamik der technologischen Entwicklung tragbar?
Ruth Janal: Der risikobasierte Ansatz der KI-Verordnung ist grundsätzlich sinnvoll. KI-Systeme finden bereits jetzt in vielen Bereichen des Alltags Einsatz, und die Anwendungsgebiete werden sich künftig stark erweitern. Nicht für jedes dieser Einsatzfelder bedarf es einer vorherigen Sicherheits- und Grundrechtsprüfung. Deshalb ist es gut, dass der Fokus der KI-Verordnung auf sogenannten Hochrisiko-KI-Systemen liegt. Dabei erfolgt die Definition eines Hochrisiko-KI-Systems gerade nicht anhand technologischer Kriterien, sondern im Wesentlichen nach Themenfeldern, wie Bildung, Arbeit, Kredit-Scoring, Kritische Infrastrukturen oder Grenzkontrollen. Dies bietet eine große Offenheit gegenüber der technologischen Entwicklung, weil es für die Einstufung als Hochrisiko-KI-System irrelevant ist, welche KI-Technologie zum Einsatz kommt. Selbstverständlich kann man darüber streiten, ob die Hochrisiko Anwendungsfelder richtig gewählt wurden. Der Europäischen Kommission wurde aber in der KI-Verordnung die Befugnis eingeräumt, neue Hochrisiko-Einsatzgebiete zu definieren, sollte sich künftig ein entsprechender Bedarf ergeben.
Welche Herausforderungen ergeben sich durch den AI Act bei der Entwicklung KI-basierter Geschäftsmodelle und dem Vertrieb von KI-basierten Produkten?
Corina Apachiţe: Automotive-Produkte sind Systeme bestehend aus Software, Hardware und Mechanik. Technisch gesehen ist KI eine Entwicklungstechnologie, die in das System integriert wird. Damit basieren die Produkte und deren Geschäftsmodelle auf dem System. Für den KI-Komponentenanteil ist der AI Act zu berücksichtigen, was technische, rechtliche und operative Herausforderungen betrifft. Die Anforderungen des AI Act müssen sich in die Prozesse so integrieren, dass möglichst wenig zusätzlicher Aufwand entsteht. Insbesondere die Dokumentationsanforderungen sind ergänzend zu den bisherigen Pflichten. Es besteht das Risiko, die Prozesse und damit die Produkte zu verteuern. Da KI zurzeit eine extrem hohe Innovationsgeschwindigkeit vorlegt, kann die Integration in die klassischen Prozesse die Innovation deutlich verlangsamen. Das bedeutet ebenfalls ein Risiko für die Geschäftsmodelle, da die langfristig ausgelegten Automotive-Geschäftsmodelle der hohen KI Entwicklungsgeschwindigkeit nicht nachfolgen können. Es besteht das Risiko, dass Produkte beim Produktionsstart
bereits veraltet sind.
Die Zukunft der Mobilität ist ohne Künstliche Intelligenz nicht denkbar. Welche Chancen und Risiken entstehen durch den AI Act für die (deutsche) Mobilitätsbranche?
Corina Apachiţe: Der AI Act der Europäischen Union markiert einen Meilenstein auf dem Weg zu einem einheitlichen, vertrauenswürdigen Rahmen für Künstliche Intelligenz – und hat damit direkten Einfluss auf die Mobilitätsbranche. Für deutsche Unternehmen bietet er gleichermaßen große Chancen wie konkrete Herausforderungen. Auf der Chancen-Seite steht vor allem die Schaffung eines verlässlichen regulatorischen Umfelds. Unternehmen, die KI regelkonform und transparent einsetzen, stärken das Vertrauen in ihre Produkte – besonders im sicherheitskritischen Bereich der Mobilität. Der AI Act fördert dadurch innovationsfreundliche Rahmenbedingungen und verschafft deutschen Anbietern einen Wettbewerbsvorteil auf globalen Märkten. Gleichzeitig sichert er ihnen den Zugang zum europäischen Binnenmarkt und wirkt als Qualitätsnachweis gegenüber Kunden, Investoren und Partnern. Die Mobilitätsbranche profitiert zusätzlich von bestehenden Kompetenzen: Mit ihrer langjährigen Erfahrung in Sicherheitsnormen, Risikomanagement und Systemdokumentation bringt sie wichtige Grundlagen mit, um die Anforderungen des AI Act effizient umzusetzen. Demgegenüber stehen jedoch auch Risiken. Besonders bei KI-Anwendungen, die als „hochrisikobehaftet“ eingestuft werden – etwa im Bereich automatisiertes Fahren oder intelligente Verkehrssteuerung –, steigen die Anforderungen an Nachweisführung, Kontrolle und Governance erheblich. Zudem müssen international tätige Unternehmen mit unterschiedlichen regulatorischen Vorgaben umgehen, was den Bedarf an flexiblen, skalierbaren Compliance-Strukturen erhöht. Insgesamt ist der AI Act ein Weckruf und eine Chance zugleich: Wer ihn strategisch adressiert, kann die Zukunft der Mobilität aktiv mitgestalten – verantwortungsvoll, innovativ und wettbewerbsfähig.
Viele generative KI-Modelle sind auf amerikanischen Daten trainiert und nicht auf europäische, rechtliche und gesellschaftliche Rahmenbedingungen abgestimmt. Wie können europäische Werte in die Entwicklung und das Training von KI einfließen?
Ruth Janal: Die KI-Verordnung wird auch angewandt auf die Entwicklung von KI-Systemen, die außerhalb der Europäischen Union trainiert werden, sofern das KI-System innerhalb der EU zum Einsatz kommen soll. Die KI-Verordnung verpflichtet die Entwickler zum Einsatz passender Datengovernance-Verfahren. So müssen die Datensätze beispielsweise relevant und repräsentativ sein und die relevanten geografischen Rahmenbedingungen berücksichtigen. Gleichwohl ist dies in der Praxis nicht ganz einfach, zumal in der Union teilweise das Datenschutzrecht einem Training mit repräsentativen Daten entgegensteht. Auch haben die Erfahrungen im Datenschutz- und Kartellrecht gezeigt, dass regulatorische Vorgaben von internationalen Tech-Konzernen häufig ignoriert werden. Wichtig ist deshalb zweierlei: Erstens, eine effektive Durchsetzung des Unionsrechts und zweitens, die Stärkung der europäischen KI-Branche.
Potenziale Mensch-zentrierter und nachhaltiger KI zum Wohl der Gesellschaft nutzen
Europa hat mit dem AI Act ein großes Regelwerk verabschiedet. Haben wir uns damit Fesseln angelegt oder können wir die Leitplanken zu einem Standortvorteil umwandeln? Welche Anforderungen stellen sich aus juristischer und unternehmerischer Sicht?
Prof. Dr. Ruth Janal | Universität Bayreuth
Die Europäische Union (EU) hat mit dem AI Act einen eigenen Weg gewählt, um KI zu regulieren. Was bedeutet das für global operierende Unternehmen wie AUMOVIO SE?
Corina Apachiţe: Mit dem AI Act hat die Europäische Union einen klaren Rahmen für den Einsatz von Künstlicher Intelligenz geschaffen. Für global operierende Zulieferer in der Automobilbranche bedeutet das vor allem eines: Die Zusammenarbeit mit OEMs muss noch enger werden. Klare Dokumentationspflichten, Konformitätserklärungen und gegebenenfalls gemeinsame Risikoanalysen setzen eine abgestimmte Vorgehensweise entlang der gesamten Lieferkette voraus.
Gleichzeitig bietet der AI Act die Chance, sich über regelkonforme und vertrauenswürdige KI-Lösungen einen Wettbewerbsvorteil zu verschaffen. Unternehmen, die frühzeitig in die Umsetzung investieren, sichern sich nicht nur den Zugang zum europäischen Markt, sondern senden auch ein starkes Signal an Kunden, Partner und Investoren: Sie stehen für Sicherheit, Qualität und Zukunftsfähigkeit. Die Automobilbranche bringt dabei gute Voraussetzungen mit, sie verfügt bereits über etablierte Standards im Bereich der funktionalen Sicherheit. Den noch stehen international agierende Zulieferer vor der Herausforderung, mit unterschiedlichen regulatorischen Anforderungen in verschiedenen Märkten umzugehen. Flexible Governance-Strukturen werden damit zum Schlüssel, um regulatorische Fragmentierung effizient zu managen und Innovationen weltweit rechtssicher umzusetzen.
Die Europäische Union hat mit der KI-Verordnung einen Sonderweg gewählt, um KI zu regulieren. Welche Auswirkungen hat das aus juristischer Perspektive?
Ruth Janal: Es ist richtig, dass die KI-Verordnung ein international bislang einzigartiges Regulierungsinstrument für sogenannte Künstliche Intelligenz darstellt. Aber auch in vielen anderen Ländern gibt es regulatorische Initiativen. China setzt eher auf spezifische, zielgerichtete administrative Richtlinien, zum Beispiel für generative KI. In den USA verfolgt die Trump- Regierung zwar prinzipiell einen „hands off“-Ansatz, will aber gleichwohl einen AI Action Plan entwerfen und umsetzen. Die teilweise verbreitete Vorstellung, in den USA und China ansässige Entwickler von KI-Systemen müssten sich nicht an das Unionsrecht halten, ist allerdings falsch. Die KI-Verordnung verfolgt ein sogenanntes Marktort-Prinzip, findet also Anwendung auf die Entwickler jeglicher KI, die in den Europäischen Binnenmarkt eingeführt oder dort genutzt werden soll. Ebenso wie physische Produkte, die aus Drittstaaten in die Union eingeführt werden, müssen sich auch KI-Systeme an den europäischen Sicherheitsvorschriften orientieren. Oft wird zudem ein wichtiger Vorteil der KI-Verordnung übersehen: Sie verhindert, dass in verschiedenen Mitgliedstaaten unterschiedliche Regelungen für die Entwicklung und Verwendung von KI-Systemen eingeführt werden.
Wie bewerten Sie den risikobasierten Ansatz des AI Act? Ist dieser im Hinblick auf die Dynamik der technologischen Entwicklung tragbar?
Ruth Janal: Der risikobasierte Ansatz der KI-Verordnung ist grundsätzlich sinnvoll. KI-Systeme finden bereits jetzt in vielen Bereichen des Alltags Einsatz, und die Anwendungsgebiete werden sich künftig stark erweitern. Nicht für jedes dieser Einsatzfelder bedarf es einer vorherigen Sicherheits- und Grundrechtsprüfung. Deshalb ist es gut, dass der Fokus der KI-Verordnung auf sogenannten Hochrisiko-KI-Systemen liegt. Dabei erfolgt die Definition eines Hochrisiko-KI-Systems gerade nicht anhand technologischer Kriterien, sondern im Wesentlichen nach Themenfeldern, wie Bildung, Arbeit, Kredit-Scoring, Kritische Infrastrukturen oder Grenzkontrollen. Dies bietet eine große Offenheit gegenüber der technologischen Entwicklung, weil es für die Einstufung als Hochrisiko-KI-System irrelevant ist, welche KI-Technologie zum Einsatz kommt. Selbstverständlich kann man darüber streiten, ob die Hochrisiko Anwendungsfelder richtig gewählt wurden. Der Europäischen Kommission wurde aber in der KI-Verordnung die Befugnis eingeräumt, neue Hochrisiko-Einsatzgebiete zu definieren, sollte sich künftig ein entsprechender Bedarf ergeben.
Welche Herausforderungen ergeben sich durch den AI Act bei der Entwicklung KI-basierter Geschäftsmodelle und dem Vertrieb von KI-basierten Produkten?
Corina Apachiţe: Automotive-Produkte sind Systeme bestehend aus Software, Hardware und Mechanik. Technisch gesehen ist KI eine Entwicklungstechnologie, die in das System integriert wird. Damit basieren die Produkte und deren Geschäftsmodelle auf dem System. Für den KI-Komponentenanteil ist der AI Act zu berücksichtigen, was technische, rechtliche und operative Herausforderungen betrifft. Die Anforderungen des AI Act müssen sich in die Prozesse so integrieren, dass möglichst wenig zusätzlicher Aufwand entsteht. Insbesondere die Dokumentationsanforderungen sind ergänzend zu den bisherigen Pflichten. Es besteht das Risiko, die Prozesse und damit die Produkte zu verteuern. Da KI zurzeit eine extrem hohe Innovationsgeschwindigkeit vorlegt, kann die Integration in die klassischen Prozesse die Innovation deutlich verlangsamen. Das bedeutet ebenfalls ein Risiko für die Geschäftsmodelle, da die langfristig ausgelegten Automotive-Geschäftsmodelle der hohen KI Entwicklungsgeschwindigkeit nicht nachfolgen können. Es besteht das Risiko, dass Produkte beim Produktionsstart
bereits veraltet sind.
Die Zukunft der Mobilität ist ohne Künstliche Intelligenz nicht denkbar. Welche Chancen und Risiken entstehen durch den AI Act für die (deutsche) Mobilitätsbranche?
Corina Apachiţe: Der AI Act der Europäischen Union markiert einen Meilenstein auf dem Weg zu einem einheitlichen, vertrauenswürdigen Rahmen für Künstliche Intelligenz – und hat damit direkten Einfluss auf die Mobilitätsbranche. Für deutsche Unternehmen bietet er gleichermaßen große Chancen wie konkrete Herausforderungen. Auf der Chancen-Seite steht vor allem die Schaffung eines verlässlichen regulatorischen Umfelds. Unternehmen, die KI regelkonform und transparent einsetzen, stärken das Vertrauen in ihre Produkte – besonders im sicherheitskritischen Bereich der Mobilität. Der AI Act fördert dadurch innovationsfreundliche Rahmenbedingungen und verschafft deutschen Anbietern einen Wettbewerbsvorteil auf globalen Märkten. Gleichzeitig sichert er ihnen den Zugang zum europäischen Binnenmarkt und wirkt als Qualitätsnachweis gegenüber Kunden, Investoren und Partnern. Die Mobilitätsbranche profitiert zusätzlich von bestehenden Kompetenzen: Mit ihrer langjährigen Erfahrung in Sicherheitsnormen, Risikomanagement und Systemdokumentation bringt sie wichtige Grundlagen mit, um die Anforderungen des AI Act effizient umzusetzen. Demgegenüber stehen jedoch auch Risiken. Besonders bei KI-Anwendungen, die als „hochrisikobehaftet“ eingestuft werden – etwa im Bereich automatisiertes Fahren oder intelligente Verkehrssteuerung –, steigen die Anforderungen an Nachweisführung, Kontrolle und Governance erheblich. Zudem müssen international tätige Unternehmen mit unterschiedlichen regulatorischen Vorgaben umgehen, was den Bedarf an flexiblen, skalierbaren Compliance-Strukturen erhöht. Insgesamt ist der AI Act ein Weckruf und eine Chance zugleich: Wer ihn strategisch adressiert, kann die Zukunft der Mobilität aktiv mitgestalten – verantwortungsvoll, innovativ und wettbewerbsfähig.
Viele generative KI-Modelle sind auf amerikanischen Daten trainiert und nicht auf europäische, rechtliche und gesellschaftliche Rahmenbedingungen abgestimmt. Wie können europäische Werte in die Entwicklung und das Training von KI einfließen?
Ruth Janal: Die KI-Verordnung wird auch angewandt auf die Entwicklung von KI-Systemen, die außerhalb der Europäischen Union trainiert werden, sofern das KI-System innerhalb der EU zum Einsatz kommen soll. Die KI-Verordnung verpflichtet die Entwickler zum Einsatz passender Datengovernance-Verfahren. So müssen die Datensätze beispielsweise relevant und repräsentativ sein und die relevanten geografischen Rahmenbedingungen berücksichtigen. Gleichwohl ist dies in der Praxis nicht ganz einfach, zumal in der Union teilweise das Datenschutzrecht einem Training mit repräsentativen Daten entgegensteht. Auch haben die Erfahrungen im Datenschutz- und Kartellrecht gezeigt, dass regulatorische Vorgaben von internationalen Tech-Konzernen häufig ignoriert werden. Wichtig ist deshalb zweierlei: Erstens, eine effektive Durchsetzung des Unionsrechts und zweitens, die Stärkung der europäischen KI-Branche.
Löst KI unser Fachkräfteproblem?
Der Einsatz von KI bietet vielfältige Potenziale zur Linderung von Fachkräfteengpässen: Sie kann die Produktivität der Beschäftigten steigern und dazu beitragen, potenziell Beschäftigte einzubinden, die ohne sie ausgegrenzt blieben. Ihr erfolgreicher Einsatz in der Arbeitswelt ist aber durchaus voraussetzungsreich.
Prof. Dr. Dr. h. c. Christoph | RWI – Leibniz-Institut für Wirtschaftsforschung
Steigerung der Produktivität der Beschäftigungsverhältnisse
Die geburtenstarken Jahrgänge der Nachkriegszeit werden in diesem Jahrzehnt den Arbeitsmarkt verlassen und ihm so Millionen erfahrener Fachkräfte entziehen. In vielen Branchen machen sich bereits heute ernsthafte Fachkräfteengpässe bemerkbar, doch das dürfte erst der Anfang sein. Der Einsatz von KI kann dieser Fachkräfteverknappung allerdings entgegenwirken. So wird es erstens möglich sein, in bestehenden Beschäftigungsverhältnissen Tätigkeiten anzureichern oder zu ersetzen. Dies wird die Zeit der Beschäftigten freischaufeln, um sie für andere, produktivere und häufig wohl auch stärker persönlich sinnstiftende Tätigkeiten einzusetzen. KI kann auch auf der Ebene der Beschäftigten selbst
ansetzen und ihre Produktivität steigern, indem ihre Kompetenzen deutlich erweitert werden oder indem mithilfe von KI der Wissenstransfer im Unternehmen vorangetrieben wird.
Aktivierung des heimischen und des zugewanderten Arbeitskräftepotenzials
Zweitens ergeben sich durch KI erhebliche Potenziale, solche Menschen in die Arbeitswelt zu integrieren, denen dies momentan verwehrt bleibt. So gibt es ein großes heimisches Reservoir an möglichen Beschäftigten, die derzeit nicht am Arbeitsleben teilhaben, obwohl es grundsätzlich möglich wäre. Sie haben beispielsweise aufgrund einer langen Phase der Beschäftigungslosigkeit eine geringe produktive Kapazität oder leiden unter Beeinträchtigungen seelischer oder körperlicher Natur. KI könnte dabei helfen, ein auf ihre begrenzten Möglichkeiten passendes Beschäftigungsverhältnis zu finden, ihre bislang unzureichenden Kompetenzen maßgeschneidert zu erweitern oder sogar neue Beschäftigungsverhältnisse zu schaffen, deren Tätigkeitsprofil auf ihre Bedürfnisse und Fähigkeiten zugeschnitten ist. Darüber hinaus liegt zwar drittens ein wichtiger Hebel zur Überwindung der Fachkräfteengpässe in einer gezielten Zuwanderung von Fachkräften und ausbildungswilligen Talenten. Doch um diese potenziellen Zuwanderer für unsere Volkswirtschaft zu gewinnen, müssen sie zunächst angeworben werden. KI kann dabei helfen herauszufinden, wer zu den suchenden Unternehmen passt, und die Geschwindigkeit der Entscheidungen über die Visa-Vergabe, Arbeitserlaubnis und Anerkennung von Bildungsabschlüssen erheblich verbessern. Schließlich kann KI beim Kompetenzerwerb vor Ort helfen, insbesondere beim Spracherwerb.
Erfolgreicher Einsatz von KI ist voraussetzungsreich
Die Nutzung all dieser Hebel zur Linderung der künftigen Fachkräfteengpässe ist allerdings voraussetzungsreich, es sind alle Sphären von Wirtschaft und Gesellschaft gleichermaßen gefordert. Die Unternehmen müssen ihre Arbeitsprozesse, ihre Führungsleitlinien und ihre ganze Unternehmenskultur auf diese neue Arbeitswelt mit KI umstellen, in der sie mehr Verantwortung für die individuelle Kompetenzentwicklung ihrer Beschäftigten tragen. Die Beschäftigten müssen auf der anderen Seite dazu bereit sein, völlig Neues zu lernen und sich an radikal veränderte Arbeitsprozesse anzupassen. Und die Politik muss die sozialen Folgen des Strukturwandels zwar abfedern, ist aber zugleich gefordert, ihn zu beflügeln. Bei all dem kann es nicht darum gehen, die perfekte Lösung auf einen Schlag einzuführen, sondern sich auf den Weg zu machen, vieles auszuprobieren und aus Fehlschlägen zu lernen. Das Erfolgsrezept lautet also „Pragmatismus statt Perfektionsstreben“