Faire KI: Was Unternehmen tun können

| | , ,

- Anzeige -

Eine KI kann fairer sein als der Mensch – falls sie ohne Biases trainiert wurde, sagen Georg Juelke und Recardo Jackson. Sie erklären, wie Unternehmen in drei Schritten eine vertrauenswürdige, faire KI einführen können.

Der Einsatz von Künstlicher Intelligenz (KI) ist auch aus dem Personalmanagement nicht wegzudenken. Beim Recruiting, beim internen Jobmatching oder bei datengestützten Programmen zur Weiterentwicklung von Mitarbeitenden – in unterschiedlichsten HR-Disziplinen gewinnt KI immer mehr an Bedeutung. Neben den vielen Vorteilen, die die Technologie mit sich bringt, ist ihr Einsatz nicht ohne Risiko.

Denn die Daten, die bei einer KI im Personalbereich zum Einsatz kommen, sind personenbezogen und damit sensibel. Deshalb sind diese nicht nur besonders schützenswert, sondern es muss sichergestellt werden, dass eine KI, die anhand dieser Daten bei der Entscheidungsfindung hilft, vorurteilsfrei agiert. Die Unternehmen stehen deshalb vor der Herausforderung, KI-Anwendungen einzusetzen, die Diversität fördern und sowohl vorurteilsfrei als auch nachvollziehbar eine Auswahl treffen.

Der Perfect Fit auf den ersten Klick?

Auf der Suche nach geeigneten Mitarbeitenden für ein neues Kundenprojekt oder für die Besetzung einer offenen Stelle führt der erste Blick schon lange nicht mehr in die analoge Personalakte. Intelligente, KI-basierte Systeme sammeln, organisieren und speichern nicht nur die Informationen über die Mitarbeitenden, sondern unterstützen zunehmend auch bei der Auswertung von Lebensläufen oder Profilen. Hierbei werden eine Vielzahl interner strukturierter und unstrukturierter Datenquellen herangezogen.

Dabei arbeiten diese Systeme oft mit Technologien wie Natural Language Processing (NLP) und neuronalen Netzen, die mittels kognitiver Textanalysen Zusammenhänge zwischen Inhalten erkennen. Die Entscheidung des Systems, welcher Mitarbeitende für die spezifische Aufgabe geeignet wäre, trifft das System auf Basis dieser Zusammenhänge. Die Erkenntnis solcher Zusammenhänge leitet sich zum einen aus der Analyse semantischer Beziehungen ab, zum anderen lernt die KI kontinuierlich aus den Auswahlentscheidungen menschlicher Experten.

Wie kommt der Bias in die KI?

Damit ein KI-System überhaupt eine Entscheidungsempfehlung abgeben kann, sind neben den zu analysierenden Daten auch zwei Gruppen von Personen von Bedeutung: Programmiererinnen / Programmierer, Data Engineers und Data Scientists, die die Algorithmen auswählen und konfigurieren und Anwenderinnen / Anwender, aus deren Verhalten und Entscheidungen die KI ihren Lerninput bezieht. In der Regel kommen Verfahren des maschinellen Lernens oder „Deep Learning“ zum Einsatz. Die Algorithmen werden befähigt, aus Daten und der Interaktion der Nutzerinnen und Nutzern zu lernen und auf dieser Basis Entscheidungen zu treffen.

Enthalten die verwendeten Daten aber Einseitigkeiten oder wurden vergangene Auswahlentscheidungen von Voreingenommenheiten beeinflusst, kann dies einen nachhaltigen Effekt auf das System haben. Es liegt dann ein sogenannter Bias vor, der sich auf die Vorschlagsgenerierung durch die KI auswirken und so zur manifesten Diskriminierung einzelner Personengruppen führen kann, insofern Präferenzen von Kriterien beeinflusst sind, die mit der fachlichen Eignung einer Personen in keinem Zusammenhang stehen.

Um dieses Risiko zu minimieren, ist es wichtig, dass der Bias nur auf Faktoren objektivierbarer Eignung beruht und in keiner Beziehung mit Eigenschaften ohne fachlichen Bezug wie Alter, Geschlecht, ethnische Herkunft, Behinderung oder sexuelle Orientierung steht. Hierbei müssen bestehende Datenquellen bereinigt und bei neu gesammelte Daten die richtigen Eigenschaften herangezogen werden.

Diese Herausforderung spielt auch in der geplanten EU-Verordnung für Künstliche Intelligenz eine große Rolle. Bereits im April 2021 hat die EU-Kommission den ersten Rechtsrahmen für KI vorgestellt, der sich mit ihren Risiken befasst 1. Dieser soll innerhalb der nächsten zwei Jahre in Kraft treten und dann für alle Unternehmen, die KI einsetzen oder dies planen, bindend sein.

Drei Schritte zur Bewertung des Diskriminierungspotenzials von KI-Systemen

Für Unternehmen empfiehlt es sich, bei der Einführung einer KI-basierten Software einen Testprozess zu durchlaufen, welcher auf drei methodischen Grundlagen basiert: Transparenz, Partizipation und Feedback. Im Rahmen des Förderprojekt „KIDD“ des Bundesministeriums für Arbeit und Soziales wird aktuell ein solcher Prozess erprobt. Das IT-Beratungsunternehmen msg ist eines von acht beteiligten Unternehmen und Partnerorganisationen, die über den Projektzeitraum von drei Jahren einen innovativen und auf andere Unternehmen übertragbaren Prozess für die faire, transparente und partizipative Einführung von KI in Unternehmen entwickeln.

#1: Mit nachvollziehbaren Entscheidungsmodellen Transparenz herstellen

Wird beispielsweise eine KI-basierte Software eingesetzt, um geeignete Mitarbeitende für ein Projekt vorzuschlagen, müssen die Benutzerinnen und Benutzer der Software einsehen können, auf welcher Basis die Auswahl der Kandidatinnen und Kandidaten und deren Ranking zustande gekommen ist. Genau das ist häufig nicht der Fall, wenn nur die vermeintlich geeigneten Kandidatinnen und Kandidaten angezeigt werden und nicht Berücksichtigte nicht sichtbar sind.

Geht es beispielsweise um internes Jobmatching, können solche Entscheidungsregeln weitreichende Folgen für die Karriere- und Entwicklungsmöglichkeiten einer Person haben. Entscheidend ist also, dass die Daten und Entscheidungsmethodik der KI-Systeme keine Blackbox sein dürfen, sondern einsehbar und nachvollziehbar sein sollten.

#2: Partizipation durch Panel der Vielfalt sicherstellen

Insbesondere im Entwicklungs-, Einführungs- und Anpassungsprozess von KI-Systemen sollte ein möglichst diverser Personenkreis involviert sein, der die Ergebnisse einer KI nach persönlich erlebten Diversitätskriterien bewerten kann. Man spricht von einem „Panel der Vielfalt“, das als innerbetriebliches Gremium die Diversität der Belegschaft des Unternehmens repräsentiert. In verschiedenen Probeläufen beobachtet dieser Personenkreis nicht nur, wer vom System ausgewählt wird, sondern vor allem, wer nicht berücksichtigt wird. Dabei wird die gesamte Menge an Kandidatinnen und Kandidaten überprüft, um nachzuvollziehen, weshalb andere, möglicherweise genauso geeignete Personen, nicht oder erst an späterer Stelle empfohlen werden.

Dabei ist die Heterogenität des Panels besonders wichtig, damit unterschiedliche Dimensionen einer Schlechterbehandlung erkannt werden und für Gegenmaßnahmen berücksichtigt werden können. Dadurch können Diskriminierungspotenziale identifiziert und die zentrale Frage geklärt werden: Wie kann der Aufbau des Systems sicherstellen, dass die Vorschläge der KI fair gegenüber allen betroffenen Personen sind?

#3: Kontinuierliches Feedback zur Qualitätssteigerung und -sicherung

Letztendlich müssen nun die Erkenntnisse des Panels auch praktisch auf die Software angewendet werden. Das Feedback aus dem Testverfahren wird dazu an die für die Einführung und Nutzung des Systems Verantwortlichen weitergeleitet. Entlang der vorher identifizierten Diskriminierungspotenziale werden so die Such- oder Auswahlergebnisse der KI bewertet und mögliche „Schwächen“ im System ergründet. Wichtig dabei ist, dass die Entwicklerinnen und Entwickler eindeutige Hinweise erhalten, welche Aspekte der KI-Systeme eine Anpassung erfordern, damit sie ethisch korrekt und fair sind.

Anschließend werden die Modelle anhand der Bewertung neu trainiert, sodass spezifische Aspekte erkannter Diskriminierung korrigiert werden können. Diese kontinuierliche Feedback- und Anpassungsschleife sollte nicht nur in der Einführungs- und Testphase, sondern auch im laufenden Betrieb des KI-Systems erfolgen. Dabei ist es vorteilhaft, die einzelnen Tätigkeiten zu dokumentieren, um die Entwicklung von vertrauenswürdigen KI-Systemen auch nachweisen zu können.

Faire KI: Akzeptanz steigern und Ängste abbauen

Gerade im menschenbezogenen Kontext wie im HR-Umfeld sind die Berührungsängste mit KI noch besonders hoch. Eine nachvollziehbare Reaktion, wenn KI-Systeme als Blackbox wahrgenommen werden, die lediglich ein Ergebnis präsentieren, welches nicht erklärbar ist. Die rechtlich abgesicherte Erschaffung vertrauenswürdiger KI kann deshalb dazu beitragen, die Akzeptanz zu steigern und Ängste zu nehmen. Durch einen Prozess, der für Transparenz sorgt und auch die Belegschaft aktiv einbindet, kann Vertrauen in die Systeme erhöht und Vorurteile gegenüber der Technologie abgebaut werden.

Denn eines sollte man nicht vergessen: Eine KI kann fairer sein als der Mensch – vorausgesetzt sie wurde ohne Biases trainiert. Im Gegensatz zu den Entscheidungsprozessen des Menschen, ist bei einem KI-System nämlich ein „Blick hinter die Kulissen“ möglich. So lässt sich der Weg zur Entscheidungsfindung nicht nur einsehen, sondern auch weiterentwickeln und fairer gestalten.

Lesen Sie auch die folgenden Beiträge:

Georg Juelke ist Abteilungsleiter in der minnosphere Gmbh, dem Innovations-Inkubator und Business Solution Builder der msg-Gruppe. Sein besonderes Interesse gilt der transformativen Rolle der Digitalisierung mit Schwerpunkt auf maschinellem Lernen und der Integration des semantischen Datenmarktes, um Marktangebot und -nachfrage aufeinander abzustimmen.https://www.minnosphere.com/

Recardo Jackson ist als Executive Vice President im Test & Quality Management beim IT- Beratungsunternehmen msg tätig und leitet als Managing Director die minnosphere GmbH, den Innovation Inkubator und Business Model Builder der msg-Gruppe, sowie die Crowdtesting Plattform Firma passbrains ag. Der diplomierte Betriebswirt und Wirtschaftsinformatiker beschäftigt sich insbesondere mit branchenübergreifenden Themen zu Projekt-, Test-, Quality und Lifecycle Management. In den letzten Jahren liegt ein weiterer Schwerpunkt in digitalen Plattformen und KI.

Vorheriger Beitrag

Wir machen Pause

Komplexe Workforce Transformation: Vom Base Camp bis zum Gipfel

Folgender Beitrag