Arbeit KI-ausgewertete Videointerviews, automatisiertes CV-Screening und digitale Überwachung sind Tools, mit denen Unternehmen Zeit und Geld bei der Einstellung sparen können. Aber funktionieren sie auch? Und wie können Beschäftigte sich wehren?


Exklusiv für Abonnent:innen

KI-Anwendungen in Bewerbungsverfahren schaden derzeit mehr als sie nutzen

KI-Anwendungen in Bewerbungsverfahren schaden derzeit mehr als sie nutzen

Als die Investigativ-Journalistin Hilke Schellmann begann, über den Einsatz von künstlicher Intelligenz (KI) in der Arbeitswelt zu recherchieren, beschloss sie, einige der Tools auch an sich selber auszuprobieren. Darunter war auch ein KI-System für Videointerviews mit dem Namen myInterview, das die Suche nach Personal erleichtern sollte: Bewerber:innen nehmen ein „One-Way-Video“ auf, also ein Video, bei dem sie Antworten auf Fragen in eine Kamera sprechen, ohne dass ein Mensch mit ihnen interagiert; hinterher analysiert eine KI die Videos und gibt eine Eignungswertung ab.

Schellmann erhielt von dem Unternehmen Logindaten und begann zu experimentieren – zunächst wählte sie die Fragen aus, die sie als Personalchefin stellen würde, und nahm dann

28;chst wählte sie die Fragen aus, die sie als Personalchefin stellen würde, und nahm dann ihre Antworten als Bewerberin auf Video auf, bevor die firmeneigene Software die von ihr verwendeten Wörter und die Intonation ihrer Stimme analysierte, um zu bewerten, wie gut sie zu der Stellenausschreibung passte.Schellmann freute sich. MyInterview hatte als Ergebnis ausgespuckt, dass sie zu 83 Prozent für die Stelle geeignet war. Als sie das „One-Way-Video“ nicht auf Englisch, sondern in ihrer Muttersprache Deutsch wiederholte, stellte sie aber zu ihrer Überraschung fest, dass das System keine Fehlermeldung produzierte. Sondern ebenfalls ein gutes Ergebnis (zu 73 Prozent geeignet) – obwohl sie dieses Mal nicht einmal versucht hatte, die Fragen zu beantworten, sondern einen Wikipedia-Eintrag vorgelesen hatte. Das Transkript, das das Tool aus ihrem Deutsch zusammengebastelt hatte, war Kauderwelsch. Als das Unternehmen ihr mitteilte, dass das Programm wusste, dass sie kein Englisch sprach, und sie deshalb vor allem nach ihrer Intonation bewertet hatte, ließ sie ihre englischen Antworten von einem Sprachroboter vorlesen. Auch hier schnitt sie gut ab (79 Prozent Eignung). Schellmann war einigermaßen verwirrt.Den KI-Anwendungen liegen oft zweifelhafte Annahmen zugrunde„Wenn einfache Tests zeigen, dass diese Tools nicht funktionieren, sollten wir wirklich gründlich darüber nachdenken, ob wir sie im Bewerbungsprozess verwenden sollten“, sagt Schellmann, die als Assistenzprofessorin für Journalismus an der New York University und investigative Reporterin arbeitet.Sie beschreibt das Experiment, das sie 2021 durchführte, ihrem neuem Buch The Algorithm. Darin untersucht sie, wie KI und komplexe Algorithmen zunehmend dazu eingesetzt werden, Mitarbeiter einzustellen und sie anschließend zu überwachen und zu bewerten, auch im Hinblick auf Entlassungen und Beförderungen. Schellmann experimentiert nicht nur mit den KI-Tools, sondern spricht auch mit Expert:innen, die diese entwickelt haben – und mit Beschäftigten, die davon betroffen sind.Die KI-Anwendungen – die den Zeit- und Kostenaufwand für das Filtern von Bergen von Bewerbungen senken und die Effizienz der Personaler:innen steigern sollen – sind für viele Arbeitgeber verlockend. Doch Schellmann kommt zu dem Schluss, dass sie mehr schaden als nützen. Viele der Einstellungstools basieren nicht nur auf zweifelhaften pseudowissenschaftlichen Annahmen (zum Beispiel sei die Vorstellung, dass die Intonation unserer Stimme vorhersagt, wie erfolgreich wir in einem Job sein werden, nicht haltbar, sagt Schellmann), sie können auch Diskriminierung Vorschub leisten.Digitale Überwachung: Herr Müller, Sie klicken zu wenig!Eine Anwendung von KI auf diesem Gebiet: Digitales Monitoring, sprich Überwachung. Selbst wenn man so was ok fände, kritisiert Schellmann die Art und Weise, mit der Produktivität derart „gemessen“ oder bewertet wird, etwa durch die Anzahl von Tastatureingaben und Mausbewegungen. Schellmann betont auch, dass eine solche Überwachung sich auf die Arbeitnehmer schädlich auswirken kann.Andere KI-gestützte Überwachungstechniken – zum Beispiel die Analyse des Kündigungsrisikos, bei der aus verschiedenen Signale wie der Häufigkeit von LinkedIn-Updates die Wahrscheinlichkeit der Kündigung eines Mitarbeiters berechnet wird; oder die Stimmungsanalyse, bei der die Kommunikation eines Mitarbeiters analysiert wird, um zu versuchen, seine Stimmung zu bestimmen (bei Verärgerung wäre etwa eine Pause sinnvoll); oder die Lebenslaufanalyse, um das Potenzial eines Mitarbeiters zu ermitteln, sich neue Fähigkeiten anzueignen – haben ebenfalls meist nur geringen Prognosewert.Sie sei nicht prinzipiell gegen Innovationen auf dem Gebiet, sagt Schellmann: Auch menschliche Bewertungen und Einschätzungen von Mitarbeitern könnten ja ziemlich vorurteilsbehaftet sein. Aber sie sei dagegen, Technologien zu akzeptieren, die nicht funktionieren und nicht fair seien. „In diesem Bereich steht viel auf dem Spiel“, sagt Schellmann.Sie räumt ein, dass es schwierig nachzuvollziehen sein kann, wie Arbeitgeber die verschiedenen Tools nutzen. Obwohl manche Umfragen auf eine weit verbreitete Nutzung hindeuten, schweigen viele Unternehmen im Allgemeinen darüber, und Arbeitnehmer tappen oft im Dunkeln. Viele Bewerber gehen davon aus, dass ein „One Way“-Bewerbungsvideo von einem Menschen angesehen wird. In Wirklichkeit guckt sich allein eine KI das an.Ob die KI aus dem Instafeed wirklich schlau wird?Inzwischen ist es nicht mehr nur so, dass derartige Tools nur im Niedriglohnsektor eingesetzt werden, sondern auch im Finanzwesen oder der Krankenpflege.Schellmann untersucht vier Arten von KI-basierten Anwendungen, die bei der Einstellung von Mitarbeitern eingesetzt werden. Neben One-way-Interviews, bei denen nicht nur der Tonfall, sondern auch eine ebenso unwissenschaftliche Analyse des Gesichtsausdrucks verwendet werden kann, betrachtet sie Online-Lebenslauf-Screener, die auf der Grundlage bestimmter Schlüsselwörter in den CVs aktueller Mitarbeiter Empfehlungen aussprechen; spielbasierte Bewertungen, die auf der Grundlage eines Videospiels nach Übereinstimmungen zwischen den Eigenschaften und Fähigkeiten eines Bewerbers und den aktuellen Mitarbeitern des Unternehmens suchen; und Tools, die die Auftritte der Bewerber in den sozialen Medien durchforsten, um Persönlichkeitsprognosen zu erstellen.Keines davon sei reif für den Einsatz, sagt Schellmann. Ob spielbasierte Bewertungen wirklich die für eine Stelle relevanten Fähigkeiten prüfen? Der Social-Media-Verlaufs eines Bewerbers wird offenbar von der Software ganz unterschiedlich analysiert, je nachdem, mit welche Daten sie gefüttert wird. Lebenslauf-Screener scheinen schiefe Schlüsse zu ziehen. Schellmann führt das Beispiel eines Programms an, bei Kandidaten, die Baseball als Hobby in ihrem Lebenslauf angegeben hatten, mehr Punkte erhielten als Kandidaten, die Softball angaben. Nun ist es so, dass Männer eher Baseball spielen, Frauen eher Softball.Viele der Tools seien im Grunde genommen Blackboxen, sagt Schellmann. Eine KI, die mit Trainingsdaten gefüttert wird, sucht nach Mustern, die sie dann für ihre Vorhersagen nutzt. Aber es ist nicht klar, was diese Muster sind; es ist hingegen sehr wahrscheinlich, dass sie ungewollt zu Diskriminierung führen können. Die Anbieter wissen möglicherweise selbst nicht genau, wie ihre Tools funktionieren, ganz zu schweigen von den Unternehmen, die sie kaufen, oder den Bewerbern oder Arbeitnehmern, die ihnen ausgesetzt sind.Wie wäre es mit einer KI im Dienste der Beschäftigten?Schellmann erzählt von einer schwarzen Softwareentwicklerin und Ex-Soldatin, die sich auf 146 Stellen in der Technologiebranche beworben hat, ohne Erfolg. Die Entwicklerin weiß nicht, was ihr Problem war, aber sie führte Einweg-Interviews und spielte KI-Videospiele, und sie ist sich sicher, dass sie einem Lebenslauf-Screening unterzogen wurde. Sie fragt sich, ob die Technologie etwas gegen sie hatte, weil sie kein typischer Bewerber war. Die Stelle, die sie schließlich fand, erhielt sie von einem menschlichen Personalvermittler.Schellmann appelliert deshalb an Personalabteilungen, den von ihnen eingesetzten Einstellungsprogrammen und Arbeitsplatzüberwachungsprogrammen gegenüber skeptischer zu sein, Fragen zu stellen und Produkte zu testen. Außerdem fordert sie bessere Regulierung: Idealerweise sollte eine staatliche Stelle die Tools prüfen, um sicherzustellen, dass sie funktionieren und nicht diskriminierend sind, bevor sie auf den Markt kommen. Aber auch die Verpflichtung der Anbieter, technische Berichte darüber zu veröffentlichen, wie sie ihre Tools entwickelt und validiert haben, damit andere sie überprüfen können, wäre ein guter erster Schritt. „Diese Tools werden nicht verschwinden, also müssen wir was dagegen unternehmen und uns wehren“, sagt Schellmann.Zugleich nutzen wohl immer mehr Arbeitssuchende KIs wie ChatGPT, um Anschreiben zu verfassen, Lebensläufen den letzten Schliff zu geben und Antworten auf mögliche Fragen im Vorstellungsgespräch zu formulieren. „Hier tritt eine KI gegen die andere an“, sagt Schellmann. „Das kann der Macht der Arbeitgeber entgegenwirken.“



Source Link

Von Veritatis

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert