AI-Act: KI-Gesetz stellt HR vor rechtliche Herausforderungen

| | ,

Am 13. März hat das Europäische Parlament den Artificial Intelligence Act („AI-Act“) verabschiedet. Alexander Greth, Arbeitsrechtler bei Simmons & Simmons, beschreibt die rechtlichen Anforderungen an den Einsatz von KI im HR-Bereich, zum Beispiel im Recruiting.

Der Einsatz von Künstlicher Intelligenz (KI) steigt stark in der deutschen Wirtschaft. Laut dem HR-Report 2024 von Hays nutzen bereits 40 Prozent der befragten Unternehmen KI, und fast 60 Prozent befinden sich in der Umsetzungsphase. Die Hauptvorteile liegen aus Sicht der befragten Unternehmen in der Prozessbeschleunigung, Datenverarbeitung und Personaleinsparung. Besonders im Personalbereich werden KI-Anwendungen zunehmend üblich.

Es ist jedoch wichtig, die regulatorischen Aspekte zu berücksichtigen, insbesondere den kürzlich verabschiedeten AI-Act auf europäischer Ebene. Arbeitgeber sollten frühzeitig und transparent regulatorische Anforderungen in interne Richtlinien integrieren, um Bedenken der Mitarbeiter zu mindern und eine chancenorientierte KI-Strategie zu fördern.

KI-Anwendungen im Personalbereich sind vielfältig

AI-Act: KI-Gesetz stellt HR vor rechtliche Herausforderungen
Envato/Rawpixel

Im Personalbereich bieten KI-Anwendungen zahlreiche Möglichkeiten, insbesondere im Recruiting. KI kann während des gesamten Einstellungsprozesses eingesetzt werden, beginnend mit der Identifizierung der Bewerberanforderungen und der Stellenbeschreibung. Andere Programme gleichen die Lebensläufe der Bewerber mit den Anforderungsprofilen ab und geben Personalerinnen / Personalern Hinweise für das Vorstellungsgespräch. KI kann sogar erste Vorstellungsgespräche führen oder Personalgespräche auswerten und zusammenfassen. Das Vertragsmanagement und Onboarding der Mitarbeiter kann ebenfalls automatisiert werden.

Darüber hinaus werden KI-Anwendungen auch im Mitarbeitertraining und im Arbeitsschutz eingesetzt, zum Beispiel bei der Gefährdungsbeurteilung, der Stresserkennung und dem Gesundheitscoaching. KI ist schon lange in der Lage, große Datenmengen, wie Verträge oder E-Mail-Korrespondenz zu analysieren.

Durch die systematische Auswertung und Nutzung von HR-Daten können zudem Erkenntnisse für strategische Personalentscheidungen gewonnen werden, bekannt als „People Analytics“. Dies beinhaltet das Abgleichen verschiedener Datenquellen wie Bewerberprofile, Arbeitnehmerstammdaten, Fehlzeiten und Mitarbeiterbefragungen.
Es scheinen keine Grenzen für die Anwendung von KI-Lösungen im Personalbereich zu bestehen, auch wenn die rechtliche Regulierung noch hinterherhinkt.

AI-Act: Hochrisiko-KI-Systeme spielen entscheidende Rolle

Twenty20/@tampatra

Auf europäischer Ebene soll mit einem wegweisenden Rechtsetzungsvorhaben der Europäischen Union der Einsatz von KI zukünftig reguliert werden. Am 13. März hat das Europäische Parlament nach erfolgter Einigung mit dem Europäischen Rat den Artificial Intelligence Act („AI-Act“) verabschiedet. Die vollständige Anwendung des AI-Acts ist allerdings erst ab dem Jahr 2026 zu erwarten.

Der AI-Act verfolgt einen risikobasierten Regelungsansatz und ordnet KI-Systeme unterschiedlichen Risikostufen zu. KI-Anwendungen mit unannehmbarem Risiko sollen generell verboten werden. An Hochrisiko-KI-Systeme werden besondere Anforderungen gestellt und bei KI-Systemen mit geringem Risiko muss gegenüber den betroffenen Personen zumindest deutlich gemacht werden, dass KI zum Einsatz kommt.

Hochrisiko-KI-Systeme spielen im Personalbereich eine wichtige Rolle. Dazu zählen KI-Systeme, die für die Einstellung von Bewerbern, die Ausschreibung freier Stellen, das Sichten von Bewerbungen und die Bewertung von Bewerbern in Vorstellungsgesprächen oder durch Tests verwendet werden. Ebenso zählen dazu KI-Systeme, die für Entscheidungen über Beförderungen und Kündigungen von Arbeitsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistungen und des Verhaltens von Arbeitnehmern eingesetzt werden sollen.

Hochrisiko-KI-Systeme müssen mit Datensätzen entwickelt werden, die näher definierten Qualitätskriterien entsprechen. Vorgänge und Ereignisse müssen protokolliert werden und ihr Betrieb muss hinreichend transparent sein, damit die Nutzer die Ergebnisse angemessen interpretieren und verwenden können. Zudem müssen sie so konzipiert und entwickelt werden, dass sie wirksam beaufsichtigt werden können.

Anbieter von Hochrisiko-KI-Systemen müssen schließlich ein Risikomanagementsystem einrichten, das die Risiken, die sich bei bestimmungsgemäßer Verwendung und im Rahmen einer vernünftigerweise vorhersehbaren Fehleranwendung ergeben, bewertet. Gleicher Handlungsbedarf besteht auch bei anderen möglicherweise auftretenden Risiken.

Im Gegensatz zum Anbieter der Systeme müssen Arbeitgeber, die Hochrisiko-KI-Systeme einsetzen, durch geeignete technische und organisatorische Maßnahmen zumindest sicherstellen, dass die Systeme ordnungsgemäß verwendet werden. Das bedeutet auch, dass sie entsprechend kompetente Mitarbeiter mit der Überwachung beauftragen müssen.

Diskriminierende Entscheidungen durch KI-Anwendungen

Visualisierung Daten
Twenty20/@lmallo

Obwohl KI-Anwendungen oft als objektiv und unbestechlich betrachtet werden, kann die Einbindung einer menschlichen Kontrollinstanz dazu beitragen, potenziell diskriminierende Entscheidungen zu vermeiden. Denn die Entscheidungen von KI-Systemen sind nur so gut wie die Daten, mit denen sie trainiert wurden. Das macht sie fehleranfällig, wie vergangene Vorfälle gezeigt haben.

Wenn beispielsweise die Datenbasis einer KI-Anwendung zeigt, dass bisher hauptsächlich männliche Bewerber für vergleichbare Stellen ausgewählt wurden, könnte das KI-System dieses Muster aufgreifen und “männlich” als Selektionskriterium verwenden. Solche Entscheidungen widersprechen den Vorgaben des Allgemeinen Gleichbehandlungsgesetzes (AGG) aufgrund ihrer diskriminierenden Natur. Obwohl mittlerweile mehr auf die Vermeidung von Voreingenommenheit bei der Programmierung von KI-Anwendungen und der Auswahl der Trainingsdaten geachtet wird, bleiben Fehler durch KI in diesem Bereich weiterhin möglich.

Um die Reproduktion voreingenommener Entscheidungsmuster durch KI zu verhindern, ist es wichtig, dass Arbeitgeber ihre Mitarbeiter für diese Risiken sensibilisieren und die Entscheidungen des KI-Systems kritisch hinterfragen.

Höhere Akzeptanz durch unternehmensinterne Richtlinien

Um sicherzustellen, dass KI-Anwendungen im Personalbereich zukünftig den Vorschriften des AI-Acts entsprechen, sollten Unternehmen frühzeitig interne Prozesse anpassen und diese in einer firmeninternen Richtlinie festlegen. Dies gewährleistet maximale Transparenz bei der Nutzung von KI und steigert die Akzeptanz unter den Mitarbeitern, indem potenzielle Bedenken adressiert werden. Grundsätzlich ist es wichtig, die Chancen zu erkennen, die KI bietet, um im globalen Wettbewerb wettbewerbsfähig zu bleiben und den Mitarbeitern faszinierende Aufgaben zu ermöglichen.

Lesen Sie auch die folgenden Beiträge:

Foto Alexander Greth

Alexander Greth ist Counsel und Fachanwalt für Arbeitsrecht bei der Wirtschaftskanzlei Simmons & Simmons. Er berät in allen Fragen des individuellen und kollektiven Arbeitsrechts sowie der betrieblichen Altersversorgung.

Vorheriger Beitrag

Flexibles und individualisiertes Lernen schlägt Top-down-Ansatz

Wirksames Karrieremanagement betreiben, Stress reduzieren

Folgender Beitrag