KI-Schulungspflicht 2025: Was der AI Act für Ihr Team bedeutet
- Basar Seven
- vor 3 Tagen
- 4 Min. Lesezeit
Ein Gesetz tritt in Kraft, und plötzlich steht eine Frage im Raum, die vorher niemand gestellt hat: Verstehen Ihre Mitarbeitenden eigentlich, was die KI tut, die sie täglich nutzen?
Seit Februar 2025 verlangt der AI Act genau das. Nicht als vage Empfehlung, sondern als dokumentierbare Pflicht. Im Mittelstand trifft diese Anforderung auf eine Realität, in der weder Rechtsabteilungen noch Schulungsbudgets unbegrenzt verfügbar sind.
Die gute Nachricht: Nicht jede KI-Anwendung löst dieselben Pflichten aus. Die entscheidende Frage ist, welche Systeme Sie einsetzen – und wer in Ihrem Team welches Wissen braucht.
Seit Februar 2025 verpflichtet der AI Act Unternehmen zu etwas scheinbar Einfachem: Wer KI einsetzt, muss sicherstellen, dass Mitarbeitende verstehen, was sie tun. Die Realität zeigt jedoch eine Lücke zwischen gesetzlicher Anforderung und betrieblichem Alltag – besonders im Mittelstand, wo weder Rechtsabteilungen noch Schulungsbudgets unbegrenzt verfügbar sind.
Entscheidend ist die Unterscheidung zwischen KI-Anbietern, Betreibern und Nutzern: Während ChatGPT für E-Mail-Entwürfe keine Schulungspflicht auslöst, sieht es bei Hochrisiko-Systemen im Personalwesen oder der Qualitätskontrolle anders aus. AI Literacy bedeutet dabei nicht Programmierkenntnisse, sondern die Fähigkeit, Systemgrenzen zu erkennen und Ergebnisse kritisch einzuordnen. Ein dreistufiges Schulungsmodell – Grundwissen für alle, Vertiefung für Anwender, Spezialisierung für Verantwortliche – macht diese Anforderung handhabbar.
Die folgenden Abschnitte liefern konkrete Werkzeuge: eine Checkliste zur Bestandsaufnahme, Dokumentationsvorlagen für die Bundesnetzagentur und einen 90-Tage-Zeitplan zur Umsetzung.
Was seit Februar 2025 anders ist (und warum es viele erst jetzt bemerken)
Ein mittelständischer Fertigungsbetrieb in Schwaben nutzt seit acht Monaten ein KI-System zur Qualitätskontrolle. Die Software erkennt Materialfehler schneller als jedes menschliche Auge, die Reklamationsquote ist gesunken. Niemand hat sich Gedanken über Schulungen gemacht—bis eine Anfrage der Bundesnetzagentur eintrifft. Plötzlich steht die Frage im Raum: Wissen die Mitarbeitenden eigentlich, was sie da bedienen?
Der AI Act, seit Februar 2025 in Kraft, verlangt in Artikel 4 etwas scheinbar Simples: Wer KI-Systeme einsetzt oder entwickelt, muss für ausreichende KI-Kompetenz der Mitarbeitenden sorgen. Keine Verbote, keine Zulassungsverfahren—nur die Pflicht zu verstehen, was man tut. Die Logik dahinter leuchtet ein: KI-Systeme beeinflussen Entscheidungen, und wer Entscheidungen trifft, sollte deren Grundlage begreifen können.
Was das Gesetz nicht liefert: eine Anleitung, wie ein 20-Personen-Unternehmen diese Anforderung praktisch umsetzt. Zwischen rechtlicher Klarheit und betrieblicher Realität klafft eine Lücke, die jedes Unternehmen selbst füllen muss.
Wann die Schulungspflicht wirklich greift (und wann nicht)
Die Unterscheidung klingt technisch, ist aber entscheidend: KI-Anbieter entwickeln und vertreiben Systeme, KI-Betreiber setzen sie ein, KI-Nutzer verwenden Standard-Tools. Wo Sie stehen, bestimmt Ihre Pflichten.
Wenn Ihr Vertriebsteam ChatGPT für E-Mail-Entwürfe nutzt, atmen Sie auf—das fällt nicht unter die Schulungspflicht. Anders sieht es aus, wenn Ihre Personalabteilung ein KI-gestütztes Bewerbermanagementsystem einsetzt, das Kandidaten vorselektiert. Solche Hochrisiko-KI-Systeme im Personalwesen unterliegen strengeren Anforderungen. Die Grauzone beginnt bei der Produktions-KI zur Maschinenwartung—hier hängt alles von der genauen Einstufung ab.

Die Hochrisiko-Kategorien des AI Act umfassen neben Personalwesen auch kritische Infrastruktur und biometrische Identifizierung. Viele Unternehmen wissen nicht, ob ihr System als Hochrisiko gilt. Im Zweifelsfall lohnt sich die Nachfrage beim Anbieter oder eine Beratung bei den Mittelstand-Digital Zentren.
Was Ihre Mitarbeitenden wissen müssen (und wie sie es lernen)
AI Literacy bedeutet nicht, KI programmieren zu können. Es geht darum zu verstehen, was ein System kann, wo seine Grenzen liegen und wie man Ergebnisse kritisch bewertet. Diese Kompetenz wächst in Stufen.
Wer gelegentlich mit KI-Tools arbeitet, braucht ein Grundverständnis: Was kann das System, was nicht? Halbtägige Workshops bei der IHK oder E-Learning-Module schaffen hier eine solide Basis. Wer täglich mit einem Hochrisiko-System arbeitet, braucht mehr—tool-spezifische Schulungen beim Anbieter, ein Verständnis für Risikobewertung und Dokumentation. Und wer als Geschäftsführung die Verantwortung trägt, muss den rechtlichen Rahmen der KI-Verordnung kennen.
Für ein 20-Personen-Team könnte das bedeuten: Grundschulung für alle, vertiefte Schulung für die direkten Anwender, spezialisiertes Training für zwei bis drei Verantwortliche. Der AI Act definiert nicht, wie viel Kompetenz genug ist—aber er erwartet, dass Sie die Frage ernst nehmen.
Die Checkliste, die Sie tatsächlich brauchen
Die Bundesnetzagentur wird nicht nach Webinar-Teilnahme fragen, sondern nach Dokumentation. Die gute Nachricht: Der Prozess ist überschaubarer, als viele befürchten.
Beginnen Sie mit einer Bestandsaufnahme: Welche KI-Systeme setzen Sie ein, welche davon fallen unter Hochrisiko, wer nutzt sie? Eine einfache Tabelle genügt. Daraus ergibt sich der Schulungsbedarf: Wer braucht Grundwissen, wer vertiefte Kompetenz?

Die Dokumentationspflicht verlangt Nachvollziehbarkeit: Welche Schulungen fanden statt, mit welchen Inhalten, für wen? Halten Sie Schulungsdatum, Teilnehmende und Themen fest—digital gespeichert, mindestens fünf Jahre aufbewahrt. Lieber einfach und vollständig als perfekt und lückenhaft.
Ein realistischer Zeitrahmen: 30 Tage für die Bestandsaufnahme, 60 Tage für erste Schulungen, 90 Tage bis die Dokumentation steht. Das ist kein Sprint, sondern der Beginn eines kontinuierlichen Prozesses.
Die Frage aus der Einleitung—verstehen Ihre Mitarbeitenden eigentlich, was die KI tut?—lässt sich nicht mit einer Schulung beantworten. Sie bleibt, auch wenn die Dokumentation steht und die Checkliste abgehakt ist. Der AI Act verlangt keine einmalige Antwort, sondern eine fortlaufende Auseinandersetzung.
Der Fertigungsbetrieb in Schwaben wird seine Qualitätskontrolle weiter optimieren. Aber die interessantere Entwicklung spielt sich woanders ab—in den Gesprächen zwischen Geschäftsführung und Team, zwischen Anwendern und Skeptikern.
Was dabei herauskommt, steht in keinem Gesetz. Es entscheidet sich darin, wie Unternehmen diese Pflicht verstehen: als bürokratische Hürde oder als Anlass, eine überfällige Frage endlich ernst zu nehmen.



Kommentare