KI-Kompetenz nach AI Act: Was Art. 4 für Ihr Team bedeutet
- Basar Seven
- 20. Jan.
- 3 Min. Lesezeit
Ein Gesetz verlangt Kompetenz, ohne zu definieren, was Kompetenz eigentlich ist. Art. 4 der KI-Verordnung stellt Unternehmen vor genau dieses Paradox: Wer KI-Systeme einsetzt, muss nachweisen, dass sein Team damit umgehen kann – aber welcher Maßstab gilt, bleibt offen.
Überraschend ist der Geltungsbereich. Die Pflicht betrifft nicht nur Hochrisiko-Anwendungen, sondern jedes KI-System. Der Handwerksbetrieb mit KI-gestützter Routenplanung steht vor denselben Grundanforderungen wie der Konzern mit automatisierter Personalauswahl.
Was bedeutet das konkret für Ihr Team – und wie dokumentieren Sie etwas, das der Gesetzgeber bewusst nicht festgeschrieben hat?
Wer Art. 4 der KI-Verordnung ernst nimmt, steht vor einem Paradox: Der Gesetzgeber verlangt nachweisbare KI-Kompetenz, definiert aber keinen festen Standard. Statt einer klaren Latte setzt die Verordnung auf Verhältnismäßigkeit – was Unternehmen verunsichert, aber auch Spielraum für kontextgerechte Lösungen eröffnet. Entscheidend ist nicht, Algorithmen zu verstehen, sondern kritisch einordnen zu können: Wie kam diese KI-Empfehlung zustande, wo könnte sie falsch liegen, wann überschreibe ich sie?
Die Pflicht gilt überraschend breit – für alle KI-Systeme unabhängig von der Risikoklasse. Ein Handwerksbetrieb mit KI-Routenplanung unterliegt denselben Grundanforderungen wie ein Konzern. Praktisch bewähren sich drei Formate: Inhouse-Workshops für 1.500 bis 3.000 Euro, skalierbare E-Learning-Plattformen ab 20 Euro pro Person monatlich, oder Hybridmodelle, die beides kombinieren. Im Ernstfall zählt die Dokumentation: Wer wurde wann geschult, welche Inhalte wurden vermittelt, warum war das angemessen? Die folgenden Abschnitte liefern konkrete Checklisten und Schulungskonzepte für Ihre Umsetzung.
Was "ausreichende KI-Kompetenz" konkret bedeutet (und was nicht)
Art. 4 der KI-Verordnung formuliert eine Anforderung, die auf den ersten Blick klar wirkt: Personen, die KI-Systeme einsetzen oder überwachen, müssen über "ein ausreichendes Maß an KI-Kompetenz" verfügen. Doch wer nach einer präzisen Definition sucht, wird enttäuscht. Der AI Act definiert keinen festen Standard, sondern verlangt Verhältnismäßigkeit zum jeweiligen Einsatzkontext.
Was das praktisch bedeutet, lässt sich an einem Vertriebsteam verdeutlichen, das ein KI-gestütztes CRM zur Lead-Priorisierung nutzt. Ausreichende KI-Kompetenz heißt hier nicht, den Algorithmus zu verstehen. Es geht darum, drei Fragen beantworten zu können: Wie kam diese Priorisierung zustande? Wo könnte sie falsch liegen? Wann überschreibe ich die Empfehlung? Diese Fähigkeit zur kritischen Einordnung macht den Unterschied zwischen bloßer Tool-Nutzung und kompetenter Anwendung.
Das Spannungsfeld zwischen Rechtssicherheit und Pragmatismus ist unausweichlich. Die KI-VO sagt nicht, wo die Latte liegt – Unternehmen müssen selbst begründen können, warum ihre Schulung angemessen ist. Das verunsichert, eröffnet aber auch Spielraum für kontextgerechte Lösungen.
Wen Art. 4 wirklich trifft – und warum die Risikostufe keine Rolle spielt
Im Gegensatz zu vielen anderen Verpflichtungen der KI-Verordnung gilt Art. 4 für alle KI-Systeme, unabhängig von ihrer Risikoklassifizierung. Das macht ihn zur weitreichendsten Einzelverpflichtung des AI Act.
Die Begriffe verdienen Klarheit: Anbieter entwickeln oder vertreiben KI-Systeme, Betreiber setzen sie ein. Die meisten KMU sind Betreiber – sie nutzen ChatGPT, Salesforce Einstein oder automatisierte Rechnungsprüfung. Ein Handwerksbetrieb, der KI-gestützte Routenplanung einsetzt, betreibt kein Hochrisiko-System. Die Schulungspflicht greift dennoch.

Diese Breite überrascht viele. Doch "handeln" bedeutet nicht zwangsläufig ein großangelegtes Schulungsprogramm. Es bedeutet: begründbare Maßnahmen, angemessen zum Einsatzkontext.
Drei Schulungsformate, die für KMU funktionieren
Die passende Schulungsform entsteht aus der Unternehmensrealität, nicht aus einem theoretischen Ideal. Drei Optionen haben sich bewährt.
Kompakte Inhouse-Workshops über einen halben Tag, für Teams von zehn bis zwanzig Personen, kosten extern etwa 1.500 bis 3.000 Euro. Ihr Vorteil liegt in der Spezifität – sie lassen sich auf die eigenen Tools zuschneiden. Der Nachteil: Ohne Update-Mechanismus veraltet das Wissen.
Modulare E-Learning-Plattformen wie LinkedIn Learning bewegen sich bei 20 bis 30 Euro pro Person und Monat. Sie skalieren gut, bleiben aber generisch.
Ein Hybridmodell kombiniert beide Ansätze: Basis-E-Learning für die Grundlagen, ergänzt durch quartalsweise Q&A-Sessions mit Experten. Diese Balance trifft oft den realistischsten Punkt. Arbeitsrechtlich gilt: Schulungen finden während der Arbeitszeit statt, die Kosten trägt der Arbeitgeber.
Die Dokumentation, die im Zweifel zählt
Im Ernstfall – wenn Aufsichtsbehörden nachfragen oder Haftungsfragen entstehen – muss nachweisbar sein, dass Schulungen stattfanden, welche Inhalte vermittelt wurden und warum diese als ausreichend gelten.
Ein funktionierendes Dokumentationssystem erfasst den Schulungsnachweis pro Person mit Datum, Format und Dauer. Die Inhaltsdokumentation muss nachvollziehbar machen, was behandelt wurde. Entscheidend ist die Begründung der Angemessenheit: Warum ist dieses Format für diesen KI-Einsatz ausreichend? Und schließlich braucht es einen Aktualisierungsmechanismus, der festlegt, wann nachgeschult wird.

Die Versuchung, Compliance als reines Dokumentationsspiel zu betreiben, ist nachvollziehbar. Doch Aufsichtsbehörden werden nicht nur Papier prüfen, sondern auch stichprobenartig die tatsächliche Kompetenz. Dokumentation ist Nachweis, nicht Ersatz für echte KI-Literacy.
Das Paradox aus der Einleitung löst sich nicht auf – es verschiebt sich nur. Wer KI-Kompetenz nachweisen muss, ohne dass der Gesetzgeber definiert, was Kompetenz bedeutet, steht vor einer Entscheidung, die kein Regelwerk abnehmen kann: Welches Maß an Verstehen ist gut genug?
Vielleicht liegt darin eine unbeabsichtigte Weisheit. Art. 4 zwingt Unternehmen, selbst zu formulieren, was kompetenter Umgang mit KI in ihrem Kontext bedeutet. Diese Übung könnte wertvoller sein als jede vorgegebene Checkliste.
Was bleibt, ist eine Frage, die über Compliance hinausreicht: Schulen Sie, um Anforderungen zu erfüllen – oder um zu verstehen, was Ihre KI-Systeme tun?


Kommentare