Mit dem EU Artificial Intelligence Act, kurz EU AI Act, hat die Europäische Union erstmals einen verbindlichen Rechtsrahmen für Künstliche Intelligenz geschaffen – ein Meilenstein, der die Arbeitswelt in Europa grundlegend prägen wird.Seit dem 1. August 2024 ist die weltweit erste umfassende KI-Verordnung in Kraft. Für Unternehmen in Deutschland bedeutet das: neue Chancen, aber auch klare Pflichten. Die Verordnung schafft einen einheitlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz (KI) in der EU und setzt dabei auf einen risikobasierten Ansatz.
Doch warum braucht es überhaupt eine europäische KI-Verordnung? Welche Ziele verfolgt sie? Und vor allem: Was bedeutet das konkret für Ihr Unternehmen? In diesem Beitrag stellen wir Ihnen die wesentlichen Bestandteile des EU AI Acts kompakt und leicht verständlich vor und geben Ihnen am Ende auch ganz konkrete Handlungsempfehlungen, mit denen Sie sofort, aber auch mittelfristig alle Anforderungen richtig erfüllen.
Übrigens: In unserem Online-Seminar „KI-Verordnung & EU AI-Act“ erfahren Sie kompakt in 4 Stunden alles, was Sie als Führungskraft jetzt wissen müssen!
Die Entstehung des EU AI Acts ist das Ergebnis eines mehrjährigen Prozesses, der bereits 2019 angestoßen wurde. Der erste Entwurf wurde im April 2021 von der EU-Kommission vorgelegt. Nach intensiven Verhandlungen zwischen dem Europäischen Parlament, der Kommission und dem Rat der EU-Mitgliedstaaten wurde das Gesetz am 13. März 2024 vom Europäischen Parlament verabschiedet. Deutschland stimmte der Verordnung trotz anfänglicher Bedenken zu, nachdem Bundesdigitalminister Volker Wissing (FDP) einen "tragbaren Kompromiss" ausgehandelt hatte.
Das neue EU-KI-Gesetz verfolgt mehrere zentrale Ziele:
Schutz der Grundrechte, Demokratie und Rechtsstaatlichkeit
Förderung von Innovationen und vertrauenswürdiger KI
Schaffung von Rechtssicherheit für Unternehmen
Stärkung der EU-Position im globalen KI-Wettbewerb
Es wird Europas fantastischem Potential an Talenten zugutekommen und eine Blaupause für vertrauenswürdige KI in der ganzen Welt schaffen.
Im Zentrum des EU AI Acts steht ein risikobasierter Ansatz: Je nachdem, wie hoch das Potenzial der Gefahren von KI sind, gelten unterschiedliche Regeln – von strengster Regulierung bis zur fast vollständigen Freiheit:
KI-Anwendungen, die als fundamentale Bedrohung für die Grundrechte eingestuft werden, sind vollständig verboten. Dazu gehören:
Social Scoring-Systeme (wie in China verwendet)
Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen
Emotionserkennungssysteme am Arbeitsplatz und in Bildungseinrichtungen
KI-Systeme zur Manipulation menschlichen Verhaltens
Hochrisiko-KI-Systeme dürfen verwendet werden, unterliegen jedoch strengen Auflagen. Zu dieser Kategorie gehören:
KI in der kritischen Infrastruktur (Verkehr, Energie, Wasser)
Systeme für Bewerbungsverfahren und Personalentscheidungen
Medizinische KI-Anwendungen
Kreditwürdigkeitsprüfungen und Versicherungsrisikobewertungen
Biometrische Identifizierungssysteme
KI-Systeme mit begrenztem Risiko müssen bestimmte Transparenzanforderungen erfüllen. Dazu gehören:
Chatbots müssen klar als KI-System erkennbar sein
KI-generierte Inhalte müssen als solche gekennzeichnet werden
Deepfakes und synthetische Medien erfordern entsprechende Markierungen
Die meisten KI-Systeme fallen in diese Kategorie und unterliegen kaum Beschränkungen. Beispiele sind:
Spam-Filter
KI-gestützte Empfehlungssysteme
Automatische Übersetzungen
KI-Effekte in Videospielen
Ein zentrales Novum der Verordnung ist die Schulungspflicht nach Artikel 4: Unternehmen müssen sicherstellen, dass ihre Mitarbeitenden über das nötige Know-how im Umgang mit KI verfügen – und das bereits seit dem 2. Februar 2025.
Die Schulungspflicht betrifft alle Mitarbeitenden, die direkt oder indirekt mit KI-Systemen arbeiten. Dies umfasst:
Entwickler und Data Scientists: Technische Robustheit, Bias-Vermeidung, ethische Aspekte
Führungskräfte: Compliance-Haftung, strategisches Risikomanagement
HR-Verantwortliche: Fairness in KI-gestützten Personalentscheidungen
Anwender: Grundlagenwissen über KI-Funktionsweise und -Grenzen
Die Schulungen müssen zielgruppengerecht ausgestaltet sein und folgende Bereiche abdecken:
Grundlegende KI-Funktionsweise und -Technologien
Rechtliche Rahmenbedingungen und Compliance-Anforderungen
Risikomanagement und Klassifizierung von KI-Systemen
Datenschutz und ethische Aspekte
Dokumentations- und Überwachungspflichten
Warum sich Schulungen doppelt lohnen: Wer heute in Weiterbildung investiert, minimiert morgen sein Haftungsrisiko. Gut informierte Mitarbeitende sind der Schlüssel für den sicheren und effizienten Einsatz von KI-Systemen.
Möchten Sie mehr über den richtigen Umfang und die wichtigsten Inhalte der verordneten KI-Schulungen erfahren? In unserem Beitrag „Ist KI Schulung Pflicht? Was Unternehmen zur neuen EU-Verordnung wissen müssen“ lesen Sie, wie Sie als Unternehmen die KI-Schulungspflicht korrekt umsetzen und welche Lösungsansätze Ihnen helfen können. Selbstverständlich erhalten Sie auch unter diesem Beitrag einige wertvolle Handlungsempfehlungen, um die Anforderungen des EU AI Acts bestmöglich zu erfüllen.
Nachweise nicht vergessen! Unternehmen müssen jederzeit belegen können, dass ihre Mitarbeitenden geschult wurden. Dies erfordert eine systematische Dokumentation der Schulungsmaßnahmen, etwa in Form digitaler Lernpfade, Teilnahmebestätigungen oder interner Nachweise – auch wenn die Verordnung keine formalen Zertifikate vorschreibt.
Die KI-Verordnung wird schrittweise umgesetzt, um Unternehmen ausreichend Zeit für die Anpassung zu geben:
| Datum | Inkrafttreten |
| 01.08.2024 | Formelles Inkrafttreten der Verordnung |
| 02.02.2025 | Verbot unakzeptabler KI-Systeme; Schulungspflicht (Artikel 4) |
| 02.08.2025 | Governance-Regeln; Verpflichtungen für KI-Modelle mit allgemeinem Verwendungszweck |
| 02.08.2026 | Hauptteil der Verordnung; Hochrisiko-KI-Systeme |
| 02.08.2027 | Vollständige Anwendung aller Bestimmungen |
Deutschland hat die Bundesnetzagentur als zentrale KI-Aufsichtsbehörde benannt. Die Behörde soll bis August 2025 ihre Arbeit aufnehmen und verschiedene Aufgaben übernehmen:
Marktüberwachung und Durchsetzung der Verordnung
Beratung für Unternehmen, insbesondere KMUs
Koordination mit anderen europäischen Aufsichtsbehörden
Förderung von Innovation durch regulatorische Sandboxes
Der EU AI Act bringt nicht nur neue Pflichten mit sich, sondern eröffnet Unternehmen auch zahlreiche Potenziale – sowohl wirtschaftlich als auch im Hinblick auf das Vertrauen in KI-Technologien. Wir stellen die Vor- und Nachteile des EU Artificial Intelligence Acts für Unternehmen vor:
Rechtssicherheit und Harmonisierung: Die Verordnung schafft einen einheitlichen Rechtsrahmen in der EU und verhindert einen "Flickenteppich" nationaler Regelungen. Dies ermöglicht es Unternehmen, KI-Systeme europaweit zu vermarkten, ohne sich an verschiedene nationale Bestimmungen anpassen zu müssen
Vertrauensbildung: Durch klare Regeln und Transparenzanforderungen wird das Vertrauen von Verbrauchern und Geschäftspartnern in KI-Technologien gestärkt. Dies kann zu einer breiteren Akzeptanz und Nutzung von KI-Systemen führen.
Wettbewerbsvorteil: Unternehmen, die frühzeitig in Compliance investieren, können sich als vertrauenswürdige Partner positionieren und Marktvorteile erzielen.
Innovationsförderung: Die Verordnung sieht explizit Maßnahmen zur Förderung von Innovation vor, wie regulatorische Sandboxes und Ausnahmen für Forschung und Entwicklung.
Das KI-Gesetz wird eine Startrampe für EU-Startups sein, die das globale Rennen um vertrauenswürdige KI anführen. Er wird es den europäischen Bürgern und Unternehmen ermöglichen, KI "made in Europe" sicher und vertrauensvoll zu nutzen.
Compliance-Kosten: Die Umsetzung der Verordnung erfordert erhebliche Investitionen in neue Prozesse, Schulungen und Dokumentation. Besonders kleine und mittlere Unternehmen könnten überproportional belastet werden.
Komplexität der Umsetzung: Die Klassifizierung von KI-Systemen und die Bestimmung der entsprechenden Anforderungen können komplex und zeitaufwändig sein.
Potenzielle Innovationshemmung: Kritiker befürchten, dass strenge Regulierung die Entwicklung neuer KI-Technologien verlangsamen könnte. Dies könnte europäische Unternehmen im globalen Wettbewerb mit weniger regulierten Märkten benachteiligen.
Rechtsunsicherheit: Trotz der Verordnung bleiben viele Fragen offen, insbesondere bei der praktischen Umsetzung und Interpretation der Bestimmungen.
Die KI-Verordnung betrifft nahezu alle Wirtschaftszweige, jedoch in unterschiedlichem Ausmaß:
Finanzdienstleistungen: Besonders betroffen durch Hochrisiko-Klassifizierung von KI-Systemen für Kreditwürdigkeitsprüfungen und Risikobewertungen.
Gesundheitswesen: Medizinische KI-Anwendungen fallen größtenteils in die Hochrisiko-Kategorie und unterliegen strengen Auflagen.
Personalwesen: KI-gestützte Bewerbungsverfahren und Personalentscheidungen gelten als Hochrisiko-Anwendungen.
Technologieunternehmen: Anbieter von KI-Systemen tragen die Hauptverantwortung für Compliance und müssen umfangreiche Dokumentations- und Prüfpflichten erfüllen.
Als weltweit tätiges Industrieunternehmen hat Siemens frühzeitig Maßnahmen ergriffen, um den Anforderungen des EU Artificial Intelligence Act gerecht zu werden. Künstliche Intelligenz kommt bei Siemens in vielen Bereichen zum Einsatz – von der Digitalisierung über die Mobilität bis hin zur Medizintechnik. Daher liegt der Fokus des Konzerns auf einem rechtssicheren und verantwortungsvollen Umgang mit KI-Systemen. Bereits 2024 begann Siemens mit konkreten Umsetzungen in den Bereichen Governance, Risikomanagement, Schulungen und technischer Dokumentation, um bis 2026 vollständig compliant zu sein.
2024 stellte Siemens eine konzernweite Taskforce zusammen, bestehend aus Expertinnen und Experten für Technologie, Recht und IT. Diese entwickelte verbindliche Richtlinien für den verantwortungsvollen Einsatz von KI. Die „Responsible AI Principles“ bilden die ethische Grundlage und werden durch konkrete Vorgaben („Generative AI Guardrails“) für generative KI-Anwendungen ergänzt. Diese fließen verbindlich in Produktentwicklung und Qualitätsmanagement ein. Siemens prüfte zudem bestehende KI-Systeme – etwa im HR-Bereich oder im Kundenservice – im Rahmen eines Audits auf Vertrauenswürdigkeit und Regelkonformität.
Bereits vor Inkrafttreten der Schulungspflicht (Februar 2025) startete Siemens interne Trainings. Diese vermitteln technisches und rechtliches Wissen rund um den EU AI Act sowie den sicheren Umgang mit KI-Systemen. Ziel ist es, die Belegschaft zu befähigen, Risiken zu erkennen und Unternehmensrichtlinien einzuhalten. Die Trainings stärken eine verantwortungsbewusste KI-Kultur im gesamten Unternehmen.
Siemens hat Prozesse zur Bewertung, Dokumentation und Kontrolle von KI-Systemen etabliert. Anwendungen werden gemäß den Risikoklassen des EU AI Act eingestuft. Hochrisiko-Systeme erfordern eine detaillierte Dokumentation mit Informationen zu Datensätzen, Algorithmen, Tests und Sicherheitsmaßnahmen. Ergänzt wird dies durch Checklisten und Mitigationspläne, um regulatorische Vorgaben zu erfüllen und Risiken wie Bias oder Sicherheitslücken systematisch zu adressieren.
Durch seine vorausschauenden Maßnahmen positioniert sich Siemens als Vorreiter bei der Umsetzung des EU AI Act in der deutschen Industrie. Der Konzern stellte bereits 2024 wichtige Weichen, um Compliance, Sicherheit und Ethik beim KI-Einsatz zu gewährleisten. Das Beispiel Siemens zeigt, wie ein Unternehmen durch Governance-Strukturen, Mitarbeiterqualifizierung, Dokumentation und Audits den neuen EU-Vorgaben Rechnung trägt – und dabei zugleich die Chancen der KI-Technologie weiter nutzen will. Diese Praxisinitiative kann als Blaupause für andere Industrieunternehmen dienen, die sich auf die kommenden KI-Regulierungen vorbereiten möchten.
Mit dem EU Artificial Intelligence Act setzt Europa weltweit Maßstäbe – als erstes umfassendes Gesetz zur Regulierung von Künstlicher Intelligenz. Während viele Staaten noch an Leitlinien oder Absichtserklärungen arbeiten, schafft die EU bereits einen rechtlich verbindlichen Rahmen. In den USA etwa existiert bislang kein vergleichbares Bundesgesetz. Stattdessen setzen amerikanische Behörden wie die Federal Trade Commission (FTC) auf bestehende Regelwerke zum Verbraucherschutz. Kalifornien arbeitet jedoch an spezifischen KI-Regularien auf Bundesstaatenebene. In Asien verfolgt China einen eher technologiegetriebenen Ansatz: Mit sektoralen Regeln für z. B. Empfehlungssysteme und generative KI liegt der Fokus auf staatlicher Kontrolle und Content-Regulierung.
Der EU AI Act hingegen verfolgt einen risikobasierten, grundrechtsorientierten Ansatz – mit klaren Pflichten für Hochrisiko-KI-Systeme. Damit gilt er international als Blaupause für vertrauenswürdige KI und wird bereits bei Gesetzesinitiativen in Kanada, Brasilien und Australien als Referenz herangezogen, die im Übrigen allesamt Mitglied der internationalen Initiative Global Partnership on Artificial Intelligence (GPAI) mit derzeit 44 Mitgliedstaaten sind, die die verantwortungsvolle Entwicklung und Nutzung Künstlicher Intelligenz fördert.
Der EU AI Act markiert einen Wendepunkt in der Regulierung von Künstlicher Intelligenz und wird die Geschäftspraxis deutscher Unternehmen nachhaltig prägen. Während die Verordnung neue Compliance-Anforderungen mit sich bringt, bietet sie auch die Chance, Vertrauen in KI-Technologien zu stärken und Europa als führenden KI-Standort zu etablieren.
Unternehmen, die proaktiv handeln und frühzeitig in Compliance investieren, werden langfristig im Vorteil sein. Die Schulungspflicht, die bereits seit Februar 2025 gilt, sollte als Chance begriffen werden, die KI-Kompetenzen der Mitarbeitenden systematisch zu entwickeln und eine verantwortungsvolle KI-Nutzung zu etablieren.
Die kommenden Jahre werden entscheidend sein für die praktische Umsetzung der Verordnung. Unternehmen sollten die Übergangsfristen nutzen, um sich optimal auf die neuen Anforderungen vorzubereiten und gleichzeitig die Innovationschancen zu nutzen, die eine regulierte KI-Landschaft bietet.
Nutzen Sie die Zeit bis 2026, um Ihr Unternehmen fit für die KI-Zukunft zu machen – mit Weitblick, Verantwortung und dem richtigen Know-how. Wir bieten Ihnen die passende Weiterbildung für Künstliche Intelligenz an – und ganz speziell auch unser Online-Seminar „KI-Verordnung & EU AI-Act“.

Lernen Sie in unserem kostenlosen Whitepaper „Das große 1x1 der Künstlichen Intelligenz“ alle Basics, die Sie für den Einsatz von KI wissen sollten.

Als Content- und SEO-Expertin mit über 14 Jahren Berufserfahrung gestaltet Martina Eckermann seit dem Startschuss 2017 den Management Circle Blog mit. Ihr Herz schlägt für Themen, die Führung neu denken und den Einsatz von Künstlicher Intelligenz im Arbeitsalltag beleuchten. In ihren Artikeln kombiniert sie kreative Inhalte mit analytischem Tiefgang – von Whitepapern bis hin zu Trendanalysen. Sie verfasst regelmäßig Artikel, die auf fundierter Recherche und Experteninterviews basieren. Dabei ist sie stets auf der Suche nach frischen Impulsen und Entwicklungen, die Führungskräften echte Orientierung im Business-Alltag bieten.
Zum Profil
Kommentare
Keine Kommentare