Unkategorisiert

Zentrale Einflussfaktoren von Künstlicher Intelligenz

Der vorangegangene Beitrag „Künstliche Intelligenz im Recruiting auf dem Vormarsch?“ informierte über drei mögliche KI-Systeme, wie sie innerhalb des Recruitings zum Einsatz kommen können. Doch welche zentralen Einflussfaktoren determinieren die Zuverlässigkeit und den Handlungsspielraum eines auf jener Technologie basierenden Tools? Darüber sollen die nachfolgenden Ausführungen Aufschluss geben:

  • Menschliche Vorurteile: Der Mensch selbst ist bekanntlich nicht in der Lage, gänzlich rationale und objektive Entscheidungen gemäß dem Idealbild des Homo Oeconomicus zu treffen. Zurückzuführen ist diese Tatsache mitunter auf seine begrenzte Informationsaufnahme- und Verarbeitungskapazitäten. Diese Umstände führen dazu, dass der Mensch von Vorurteilen nicht befreit ist, die sich nicht nur in der Beurteilung der potenziellen Bewerber im Recruiting niederschlägt, sondern ebenso in den Entscheidungsfindungsprozessen eines für die Personalakquise entwickelten KI-Systems. Schließlich wird jede KI im Ursprung von menschlichen Verantwortlichen programmiert und weiterentwickelt. Somit besteht die Gefahr der Übertragung von individuellen Denk- und Haltungsweisen sowie Weltanschauungen oder Überzeugungen der jeweiligen Person, wenn auch nur unterbewusst, in das das KI-System. Das nachgewiesene Dilemma der Diskriminierung von Personengruppen, beispielsweise aufgrund ihres ethnischen bzw. kulturellen Hintergrunds oder ihres Genders, kann in Konsequenz nicht nur bestehen bleiben, sondern sich noch weiter verschärfen.
  • Training der KI: Um der zuvor beschriebenen Problematik einer unter Vorurteilen leidenden KI-Anwendung entgegenzuwirken, sollte jede implementierte Software kontinuierlich mit einer großen Menge an qualitativ hochwertigen Datensätzen trainiert werden, die über ein Höchstmaß an Repräsentativität, Vollständigkeit und Ausgewogenheit in Bezug auf den anvisierten Aufgabenbereich verfügen. Dabei gilt: Je höher die Datenqualität, desto zuverlässiger agiert das System, das nahezu objektive Entscheidungen fällen kann und mögliche subjektive, von den Entwicklern anfänglich integrierten Vorurteile signifikant abschwächt. Mangelt es einer KI an einem entsprechenden Training, bleiben Voreingenommenheiten mit einer höheren Wahrscheinlichkeit im System bestehen.
  • Gesetzliche Bestimmungen: Mit der Datenschutzgrundverordnung (DSGVO), die von der Europäische Union 2016 verabschiedet wurde und in Deutschland im Mai 2018 in Kraft getreten ist, steckt der Gesetzgeber den Einflussbereich von neuen Technologien ab. Besonders für Überlegungen, die auf die Implementierung eines Matching-Algorithmus zur Selektion der Kandidat*innen abzielen, wird 22 Abs. 1 DSGVO einschlägig, welcher besagt, dass eine ausschließlich auf einer Maschine beruhende Entscheidung rechtswidrig ist. Stattdessen muss stets ein Mensch als Kontrollinstanz in einem jeden Entscheidungsprozess eingebunden werden und die von der KI generierten Ergebnisse überprüfen. Darüber hinaus hat sich die EU-Kommission zum Ziel gesetzt, den Einsatz von künstlicher Intelligenz strenger zu regulieren. Im April 2021 veröffentlichte sie einen entsprechenden Entwurf mit den potenziellen Anwendungsfeldern. Demnach solle eine KI, die im Recruiting als Matching-Algorithmus eingesetzt wird, gemäß Erwägungsgrund 36 als Hochrisiko-KI eingestuft werden und somit hohen regulatorischen Anforderungen unterliegen. Unternehmen, die diesen Vorgaben nicht nachkommen, liefen zukünftig Gefahr, mit hohen Bußgeldern belegt zu werden. (Quelle: Europäische Kommission 2021 und msgGillardon 2021)

 

Bildquelle: Eigene Darstellung in Anlehnung an Shutterstock.com