KI im Arbeitsrecht – Rechtssicheres Personalmanagement
9. Juni 2025
KI ist aus dem Personalmanagement nicht mehr wegzudenken. Doch was technisch möglich ist, ist rechtlich nicht immer zulässig. Ob automatisierte Bewerberauswahl, KI-gestützte Leistungsbewertung oder Tools wie ChatGPT im Büroalltag: Der Einsatz von KI im Arbeitsrecht wirft komplexe Fragen zu Datenschutz, Diskriminierung und Mitbestimmung auf. Dieser Beitrag zeigt praxisnah, worauf Arbeitgeber achten müssen – und wie sich KI rechtssicher gestalten lässt.
Lesedauer: 5 Minuten (ca. 1030 Wörter)

Der Einsatz von KI im Arbeitsrecht ist für Unternehmen besonders attraktiv. Künstliche Intelligenz im Personalmanagement beschreibt eine Bandbreite an Anwendungen, die von der automatisierten Bewerberauswahl über algorithmische Leistungsbewertungen bis hin zur Verwendung von generativen Tools wie ChatGPT im Arbeitsalltag reichen. Wer hier unreflektiert auf Technologie setzt, ohne die rechtlichen Rahmenbedingungen zu kennen, riskiert Verstöße gegen Datenschutz, Mitbestimmungspflichten oder Diskriminierungsschutz. Daher ist es wichtig, beim Einsatz von KI im Human-Ressource-Bereich nicht nur die technische Funktionalität, sondern auch die rechtliche Zulässigkeit mitzudenken.
In erster Linie sollten Arbeitgeber ein Maß an Verantwortungsbewusstsein entwickeln, da der Einsatz von KI im Arbeitsrecht auch die Rechte der Beschäftigten oder eines vorhandenen Betriebsrates einschränken kann. Es bestehen verschiedene Risikoszenarien, die allerdings durch eine durchdachte und geplante Vorgehensweise bei der Einführung von KI im Betrieb antizipiert und entschärft werden können. Nichtsdestotrotz sind nicht alle möglichen Einsatzfelder der Artificial Intelligence auch rechtlich zulässig. Hier nimmt u. a. die neue KI-Verordnung eine wichtige Rolle ein. Dieser Blogbeitrag gibt daher einen aktuellen Überblick zum rechtssicheren Umgang von KI im Personalwesen.
Keine automatisierten KI-Entscheidungen
Im Recruiting ist das Risiko von Rechtsverstößen besonders greifbar. KI-Systeme können beispielsweise so eingesetzt werden, dass sie – angelernt mit den Anforderungen an die Bewerber – automatisiert Einladungen zu Vorstellungsgesprächen versenden. Im Ergebnis wird dadurch eine Vorauswahl geeigneter Bewerber getroffen, an der natürliche Personen nicht unmittelbar beteiligt sind. Artikel 22 der DSGVO verbietet allerdings Entscheidungen, die ausschließlich automatisiert erfolgen und rechtliche oder ähnlich erhebliche Wirkungen entfalten. Eine Ausnahme besteht nur dann, wenn von den Bewerbern eine ausdrückliche Einwilligung vorliegt oder eine andere Rechtsgrundlage greift. Dies ist im Bewerbungsprozess in der Regel jedoch nicht der Fall.
Für das KI Personalmanagement bedeutet das konkret: Wird ein Bewerber aufgrund einer KI-Vorauswahl nicht weiter berücksichtigt, handelt es sich mit hoher Wahrscheinlichkeit um eine unzulässige automatisierte Entscheidung gem. Art. 22 DSGVO. Die Konsequenzen sind erheblich – von Schadensersatzansprüchen über mögliche Bußgelder der Datenschutzbehörden bis hin zum Beweisverwertungsverbot. Arbeitgeber sind daher gut beraten, menschliche Kontrollinstanzen verbindlich in ihre HR-Prozesse einzubauen und diese dokumentiert umzusetzen.
Recruiting mit KI: Diskriminierungsrisiken vermeiden
Ein weiteres rechtliches Minenfeld bilden die Diskriminierungsrisiken. Zahlreiche Systeme zur automatisierten Bewerbungssichtung basieren auf sog. Machine-Learning-Algorithmen, die anhand historischer Daten lernen, welche Bewerberprofile als „erfolgreich“ gelten. In der Praxis kann das dazu führen, dass Menschen mit bestimmten Namen, Altersgruppen oder Geschlechtsmerkmalen systematisch benachteiligt werden. Dabei spielt es keine Rolle, ob die Diskriminierung unbeabsichtigt erfolgt – das Allgemeine Gleichbehandlungsgesetz (AGG) schützt auch vor algorithmischer Diskriminierung. Und der Arbeitgeber haftet – das Gesetz kennt keine Ausnahme für Maschinen.
Hinzu kommt die Beweislastumkehr des § 22 AGG: Der oder die Bewerberin muss keine bewusste Benachteiligung nachweisen – ein statistischer Nachteil auf Indizienbasis genügt. In der Folge kann der Arbeitgeber sich in der unangenehmen Lage wiederfinden, eine algorithmische Entscheidung zu erklären, die er selbst nicht nachvollziehen kann. Diese bekannte Black-Box-Problematik ist längst kein theoretisches Problem mehr. Daraus folgt insgesamt, dass – selbst wenn die abschließende Entscheidung über einen Bewerber nicht gem. Art. 22 DSGVO KI-automatisiert erfolgt – die menschliche Entscheidung frei von Diskriminierungsmerkmalen sein muss.
Betriebsvereinbarungen als Kontrollinstanz
Um KI im Arbeitsrecht rechtssicher einzuführen, hilft ein zentraler rechtlicher Anker: die Betriebsvereinbarung. Aufgrund des Mitbestimmungsrechts des Betriebsrates ist sie nicht nur rechtlich notwendig, wenn technische Systeme zur Verhaltens- oder Leistungskontrolle geeignet sind (§ 87 Abs. 1 Nr. 6 BetrVG). Vielmehr schafft sie auch Transparenz und Vertrauen bei der Belegschaft. Eine moderne Betriebsvereinbarung zu KI sollte neben der Tool-Freigabe auch regeln, wofür die KI eingesetzt wird, wie Daten verarbeitet und gespeichert werden, wer Zugriff hat, und vor allem, wie algorithmische Vorschläge geprüft werden müssen.
Ein fiktives Beispiel in der Praxis: In einem Unternehmen wurde ein Tool zur Chat-Auswertung eingeführt, das die Teamproduktivität auf Basis von Antwortzeiten, Wortwahl und Aktivitätsniveau bewerten sollte. Die Software wies bestimmte Mitarbeiter als „unterdurchschnittlich effizient“ aus. Die Auswertung der Produktivitätsdaten ist geeignet, die einzelnen Mitarbeiter zu bewerten und zu überwachen. Daher kann das neue Tool rechtssicher nur mittels einer Betriebsvereinbarung eingeführt werden.
ChatGPT in der HR-Praxis rechtlich absichern
Auch die Integration von ChatGPT und anderen generativen Sprachmodellen in die tägliche HR-Arbeit bedarf klarer Regeln. Zwar kann der Einsatz solcher Tools enorme Produktivitätsgewinne bringen, etwa bei Textentwürfen oder Recherchen. Doch gerade im arbeitsrechtlichen Kontext stellt sich die Frage: Wer haftet für fehlerhafte oder unpassende Inhalte? Muss KI-Nutzung kenntlich gemacht werden? Und was gilt, wenn personenbezogene Daten in die Prompts eingegeben werden?
Ein rechtssicheres KI Personalmanagement verlangt hier nach klaren internen Vorgaben: Die Nutzung von KI-Tools muss geregelt, dokumentiert und überwacht werden. Es muss klar sein, welche Inhalte mit KI erstellt werden dürfen, welche Prüfpflichten bestehen und ob die Mitarbeiter ihre Tools selbst auswählen dürfen. Auch hier kann eine ergänzende Richtlinie, eine modulare Ergänzung zur bestehenden Betriebsvereinbarung oder zum Arbeitsvertrag helfen, praktikable und rechtlich tragfähige Lösungen zu schaffen.
Emotionserkennung und biometrische Risiken vermeiden
Besondere Vorsicht ist schließlich bei Emotionserkennungssystemen geboten. Diese versuchen, anhand von Mimik, Stimme oder Körpersprache Rückschlüsse auf Motivation, Stimmung oder Wahrhaftigkeit zu ziehen. Sie sind nicht nur wissenschaftlich umstritten, sondern auch rechtlich kaum vertretbar. Bereits heute verbietet Art. 9 DSGVO die Verarbeitung biometrischer oder gesundheitsbezogener Daten ohne explizite Rechtfertigung. Artikel 5 der KI-Verordnung geht noch weiter: Emotionserkennung im Beschäftigungskontext wird vollständig untersagt
Fazit: KI im Arbeitsrecht
Die Praxis zeigt: KI im Personalmanagement ist ein mächtiges Werkzeug – aber kein rechtliches Niemandsland. Setzen Arbeitgeber automatisierte Systeme ein, tragen sie hierfür auch die rechtliche Verantwortung. Die Verantwortung lässt sich weder auf die Hersteller oder Anbieter des KI-Systems noch auf die eigenen Mitarbeiter delegieren. Der Arbeitgeber bleibt juristisch verantwortlich für jede Entscheidung, die aus einem HR-Prozess hervorgeht – auch dann, wenn diese durch einen KI-basierten Vorschlag beeinflusst wurde.
KI im Arbeitsrecht kann Prozesse beschleunigen, Entscheidungen objektivieren und Mitarbeiter entlasten. Aber nur, wenn die rechtlichen Leitplanken eingehalten werden. Wer Datenschutz, Mitbestimmung und Antidiskriminierung von Anfang an mitdenkt, kann die Potenziale der Technik nutzen, ohne Vertrauen und Rechtskonformität zu riskieren. Der kluge Umgang mit KI beginnt nicht beim Code – sondern bei der Gestaltung rechtssicherer Rahmenbedingungen.
Sie kommen aus Kiel oder Schleswig-Holstein und haben Fragen zum Einsatz von KI im Arbeitsrecht? Oder Sie kommen aus dem übrigen Bundesgebiet und möchten sich über KI in Unternehmen informieren? Dann nehmen Sie gerne unter info@anwalt-daum.de Kontakt zu mir auf.
Dr. Oliver Daum
Fachanwalt für IT-Recht
Datenschutzbeauftragter (IHK)
IT-Sicherheitsbeauftragter (IHK)
Auch interessant: KI-Systeme im Unternehmen sicher einsetzen: Rechtliche Anforderungen und praktische Tipps
- 09.06.2025
- 10:00