Deutschland befindet sich an einem Wendepunkt. Das Milliardenpaket der Bundesregierung eröffnet völlig neue Möglichkeiten – unter anderem auch, was die digitale Infrastruktur betrifft. Und insbesondere für die großflächige Implementierung von Systemen auf Basis Künstlicher Intelligenz (KI) in deutschen Industriebetrieben und im Mittelstand.
Ein umfassendes KI-Ökosystem soll den Schlüssel zur Wettbewerbsfähigkeit darstellen, so der Verband der Internetwirtschaft „eco“ und der KI-Bundesverband. Die Branchenvertretungen haben ein Strategiepapier veröffentlicht, in dem sie eine Priorisierung von KI in der kommenden Legislaturperiode fordern. „KI ist keine Zukunftsvision mehr, sondern ein entscheidender Faktor für wirtschaftlichen Erfolg und Produktivität“, so Andreas Weiss, Geschäftsführer des eco-Verbands. Die Botschaft ist klar: Deutschland muss jetzt handeln, um im internationalen Wettbewerb nicht den Anschluss zu verlieren. Das Strategiepapier enthält Handlungsempfehlungen, wie die Verankerung einer ambitionierten KI-Strategie im Koalitionsvertrag, den Ausbau von Rechenkapazitäten und Open-Source-Alternativen, die Stärkung des Mittelstands durch praxisnahe KI-Anwendungen, die Förderung von Start-ups und gezielte Infrastrukturinvestitionen in die Digitalisierung.
Das ist die eine Seite. Sie ist mit den vorliegenden finanziellen Mitteln und politischem Willen umsetzbar. Die andere Seite betrifft den rechtlichen Rahmen. Der sogenannte „AI Act“ der Europäischen Union reguliert den Einsatz von KI in den Mitgliedsländern. Zum einen ist er dazu gedacht, Innovationen im KI-Bereich zu fördern. Zum anderen soll er dafür sorgen, dass KI den Rahmen geltenden Rechts nicht sprengt. Er soll das Vertrauen in KI-Technologien stärken und gleichzeitig die Wettbewerbsfähigkeit der europäischen KI-Industrie fördern. Soweit die Idee. Der AI Act trat im August 2024 in Kraft. Ab August 2026 wird er vollständig anwendbar sein. Einige Bestimmungen gelten schon früher: Die Regelungen über verbotene KI-Praktiken schon seit Februar 2025, die Verpflichtungen in Bezug auf KI-Modelle mit allgemeinem Verwendungszweck gelten ab August 2025. Viele Akteure aus dem KI-Umfeld kritisieren den AI Act. Er sei zu bürokratisch, enthalte zu viele Anforderungen und Pflichten für Anbieter und Nutzer von KI-Systemen. Der deutsche Start-up-Verband warnte vor einer Benachteiligung junger Unternehmen im internationalen Wettbewerb. Laut einer Deloitte-Studie sehen 52 Prozent der befragten deutschen Unternehmen den AI Act als Einschränkung ihrer Innovationsmöglichkeiten.
»Auf Anwender sogenannter Hochrisiko-KI kommen umfangreiche Dokumentationspflichten und Governance-Strukturen zu.«
Vor allem auf Anwender sogenannter „Hochrisiko-KI“ kommen umfangreiche Dokumentationspflichten und Governance-Strukturen zu. Das sind KI-Systeme mit dem Potenzial, erhebliche Auswirkungen auf die Sicherheit und die Rechte der Menschen zu haben. Als Beispiele werden KI in kritischen Infrastrukturen genannt, etwa in der Energie- oder Wasserversorgung. In der Bildung und Beschäftigung, etwa zur Bewertung von Schülern oder Einstellung von Personal. In Justiz und Strafverfolgung, der Verwaltung von Migration, Asyl und Grenzkontrollen und bei der Auslegung und Anwendung von Gesetzen. Solche Systeme müssen hohe Anforderungen in Sachen Risikobewertung, Qualitätskontrolle und Protokollierung erfüllen. In Sachen Cybersicherheit müssen sie höchsten Ansprüchen genügen. Die Hochrisiko-Anwendungen sind mithin genau diejenigen, die geeignet sind, die größten Herausforderungen unserer Zeit zu lösen: Bürokratie zu entzerren, die Resilienz in der Infrastruktur zu verbessern. Sicherheit und Verteidigungsfähigkeit zu erhöhen.
Annähernde Regulierungen gibt es in den USA, woher die meisten KI-Systeme kommen, nicht. Es gibt nur freiwillige Richtlinien wie das AI Risk Management Framework, das von der Standardisierungsbehörde NIST entwickelt wurde. Es ist nicht rechtsbindend und dient nur als Empfehlung. Cybersicherheit, ethische Standards, Kopier- und Datenschutz – das alles wird der Initiative einzelner Bundesstaaten oder der freien Wirtschaft überlassen. Dass Regulierung aber kein Hindernis für die Entwicklung von KI sein muss, beweist das Beispiel China. In China, das mit der Entwicklung der KI DeepSeek jüngst einen spektakulären Erfolg im globalen Wettbewerb erzielt hat, herrscht strenge Kontrolle durch den Staat. KI-Unternehmen müssen sicherstellen, dass generierte Inhalte mit den Vorgaben der Regierung und der kommunistischen Partei übereinstimmen. Dies betrifft insbesondere generative KI-Dienste. Ab September 2025 müssen alle KI-Inhalte als solche gekennzeichnet werden. Anbieter müssen sicherstellen, dass ihre Trainingsdaten keine „illegalen oder ungesunden Inhalte“ enthalten. Zur Durchsetzung nutzt China seine umfassenden Überwachungsstrukturen.
Europa muss seine eigene Balance finden: Es geht darum, KI nicht auszubremsen, sondern darum, sie auf die richtige Spur zu bringen. Jetzt kommt es darauf an, wie und in welcher Geschwindigkeit die europäischen Regulierungsbehörden arbeiten. Daniel Abbou, Geschäftsführer des KI Bundesverbandes, fordert eine „schlanke, pragmatische, EU-weit harmonisierte und vor allem zügige Umsetzung“. So genannte Regulatory Sandboxes sollen eine vereinfachte Konformität gewährleisten. Das sind vom Staat zur Verfügung gestellte KI-Reallabore, in denen Anbieter ihre KI-Systeme unter behördlicher Aufsicht und unter realen Bedingungen testen können, bevor diese Systeme zum Einsatz kommen. Spezifische Ausnahmen für Kleinstunternehmen, etwa Start-ups, sieht der AI Act auch vor. Sie sind zwar ebenso vom AI Act betroffen wie Konzerne, doch für sie soll ein vereinfachtes Qualitätsmanagementsystem entwickelt werden. Ein weiteres Schlüsselprojekt ist das sogenannte LEAM-Projekt (Large European AI Models), das eine gezielte Förderung für Open-Source-KI-Modelle und europäische Rechenkapazitäten fordert. Open Source könnte – AI-Act-konform – den Zugang zu KI-Technologien demokratisieren, Zusammenarbeit verbessern – und Europa in Sachen KI wettbewerbsfähig machen.