Der Algorithmus im Personalmanagement*

JEREMIASADAMS-PRASSL (OXFORD)
In diesem Aufsatz werden die rechtlichen Herausforderungen untersucht, die sich aus dem Einsatz automatisierter algorithmischer Systeme am Arbeitsplatz ergeben. Nebst manchen Möglichkeiten werden vor allem eine Reihe von Lücken im existierenden Regulatorium aufgezeigt, bevor grundsätzlichere rechtliche Überlegungen im Kontext aktueller Regulierungsversuche analysiert werden, wie zB dem Vorschlag der Europäischen Kommission zu einer PlattformarbeitsRL.
  1. Einführung

  2. Künstliche Intelligenz und die Arbeitswelt

    1. Von Überwachung zu automatisierter Kontrolle

  3. Neue Herausforderungen?

  4. Rechtliche Möglichkeiten

    1. Das Kontroll-/Rechenschafts-Paradoxon

    2. Bereichsspezifische Herausforderungen

      1. Diskriminierungsschutz

      2. Datenschutz

  5. Neue Regulierungsversuche

    1. Das spanische ‚Rider-Gesetz‘

    2. Vorschlag für eine Richtlinie zur Plattformarbeit (2021)

  6. Conclusio

1.
Einführung

Im Laufe des letzten Jahrzehnts haben sich die digitale Überwachung von AN und das algorithmische Management rasch verbreitet. Algorithmisches Management ist über seine Ursprünge in der Plattformökonomie hinausgewachsen und umfasst mittlerweile Arbeitsplätze im gesamten sozioökonomischen Spektrum: von Fabriken und Lagerhäusern bis hin zu professionellen Dienstleistungsunternehmen und Organisationen des öffentlichen Sektors.

Diese Automatisierung vollzieht sich auf einer Reihe verschiedener Ebenen. Zumindest im Prinzip können heute (fast) alle traditionellen AG-Funktionen automatisiert werden, was schwierige Fragen hinsichtlich der Anwendbarkeit nationaler und europäischer AN-Schutznormen aufwirft, die für traditionelle Arbeitsplatzstrukturen konzipiert wurden, in denen die Ausübung des Direktionsrechts letztlich einer Hierarchie von Personen oblag. Der Aufstieg des algorithmischen Managements stellt somit sowohl eine nationale als auch eine transnationale regulatorische Herausforderung dar: Software, die in einer Rechtsordnung entwickelt wurde, kann leicht in verschiedenen Ländern eingesetzt werden, da der Großteil an AG bestehende „Standardlösungen“ übernehmen, anstatt ihre eigene, proprietäre Software zu entwickeln.

Die Covid-19-Pandemie hat das rasche Wachstum der digitalen Überwachung und Kontrolle weiter angeheizt, nicht zuletzt, weil Schlüsselelemente des algorithmischen Managements häufig in Software für Home-Arbeit oder kollaborative Büros integriert sind. Die potenziellen Auswirkungen auf menschenwürdige Arbeitsbedingungen sind beträchtlich: Während die algorithmische Entscheidungsfindung im Prinzip auch zur Verbesserung der Arbeitsqualität beitragen kann, haben Fallstudien bereits eine Reihe beunruhigender Auswirkungen aufgezeigt, die von ständiger Mikroüberwachung bis zu automatisierter Diskriminierung reichen. Detaillierte Daten sind schwer zu finden, aber selbst erste Erhebungen deuten auf eine erhebliche Verbreitung hin: PWC berichtete 2017, dass 40 % der Personalabteilungen internationaler Unternehmen bereits KI-Anwendungen nutzten.*

Die Diskussion ist strukturiert wie folgt: Der nächste Abschnitt stellt eine Reihe von Fallstudien zum 195 algorithmischen Management (manchmal auch als „People Analytics“ oder „Big Data HR“ bezeichnet) vor, darunter sowohl die von Plattformen der Gig- Economy, dh von Unternehmen, die digital Arbeit vermitteln, ausgeübte Kontrolle als auch die zunehmende Automatisierung von Managementfunktionen in traditionellen Unternehmen. In Abschnitt drei werden dann die sich daraus ergebenden rechtlichen Herausforderungen dargelegt, wobei sowohl das zugrunde liegende Kontroll-Rechenschaftspflicht- Paradoxon im Arbeitsrecht als auch weitere wichtige Bereiche, nämlich das Diskriminierungsrecht und der Datenschutz, genannt werden. In Abschnitt fünf werden Lehren für kommende (algorithmische) Regulierungsdebatten gezogen, und das spanische ‚Rider‘-Gesetz und der jüngste Vorschlag der Europäischen Kommission für eine Richtlinie über Plattformarbeit vorgestellt.*

2.
Künstliche Intelligenz und die Arbeitswelt

Bis vor kurzem wurde der Aufstieg des algorithmischen Managements inmitten hitziger wissenschaftlicher Debatten über die Auswirkungen der Technologie auf die Zukunft der Arbeit relativ vernachlässigt.*

Der Schwerpunkt lag eher auf der Rolle der Digitalisierung und Automatisierung bei der Gestaltung der Zukunft der Arbeit durch ihre Auswirkungen auf der Makroebene: von der weit verbreiteten Arbeitslosigkeit bis hin zu den subtileren Auswirkungen der „Verdrahtung des Arbeitsmarktes“ (‚wiring of the labour market‘), wie es David Autor formuliert hat.* Debatten über die Zukunft der Arbeitsmarktregulierung in einer Welt ohne Arbeit sind eine entscheidende Herausforderung für das Arbeitsrecht;* der Einsatz von automatisierten Managementsystemen jedoch sogar noch dringender.

In Anbetracht des rasanten Tempos der Innovation entzieht sich das algorithmische Management bisher einer genauen Definition oder Typologie: Für gegenwärtige Zwecke umfasst die Bezeichnung die Digitalisierung des gesamten Spektrums traditioneller AG-Funktionen, von der Einstellung von AN und der Verwaltung des täglichen Betriebs firmeninterner Märkte bis hin zur Interaktion mit unternehmensexternen Märkten (zB bei der Preisgestaltung) und der Beendigung von Arbeitsverhältnissen.* Diese Folge der Automatisierung habe ich in mehreren Aufsätzen als die „Neuverdrahtung des Unternehmens“ bezeichnet:* Da die Kosten für Datenerfassung und -verarbeitung immer weiter sinken, sind AG zunehmend in der Lage, Technologien einzusetzen, um den Arbeitsplatz in einem bisher unvorstellbaren Ausmaß zu überwachen – und zu kontrollieren: eine Rückkehr des tayloristischen Managementgedankens, jedoch ohne die erheblichen Transaktionskosten, die der Überwachung von AN bisher eine natürliche Grenze setzten.*

2.1.
Von Überwachung zu automatisierter Kontrolle

AG sind seit langem bestrebt, den Arbeitsplatz zu überwachen, nicht zuletzt aufgrund von Taylors berüchtigten Theorien des „wissenschaftlichen Managements“.* Während der Europäische Gerichtshof für Menschenrechte vor fast 25 Jahren ein uneingeschränktes Recht zur heimlichen Überwachung der Kommunikation von AN ablehnte,* eröffnet der digitalisierte Arbeitsplatz dennoch eine Fülle neuer Möglichkeiten der Überwachung.*

Der Ursprung moderner algorithmischer Managementtechniken findet sich in der Gig-Economy.* Um Nutzern zu helfen, den perfekten ‚match‘ zu finden, bewerten die Plattformen die Arbeitskräfte nach einem Punkte- oder Sternensystem. Die Punkte werden – zumindest auf den ersten Blick – auf der Grundlage des anonymen Feedbacks früherer Kunden nach jedem Auftrag berechnet, und die daraus resultierende Bewertung wird künftigen Nutzern angezeigt, bevor der nächste „Gig“ beginnt.

Um Nutzern zu helfen, den perfekten ‚match‘ zu finden, bewerten die Plattformen die Arbeitskräfte nach einem Punkte- oder Sternensystem. Die Punkte werden – zumindest auf den ersten Blick – auf der Grundlage des anonymen Feedbacks früherer Kunden nach jedem Auftrag berechnet, und die daraus resultierende Bewertung wird künftigen Nutzern angezeigt, bevor der nächste „Gig“ beginnt.

Tom Slee jedoch argumentiert, dass Bewertungen in der On-Demand-Economy in dieser Hinsicht wenig bedeutsam sind. Reputationsalgorithmen, sollten stattdessen als „ein Ersatz für eine Unternehmensführungsstruktur gesehen werden, und zwar eine schlechte. Ein Reputationssystem ist der Chef aus der Hölle: ein unberechenbarer, schlecht gelaunter und nicht rechenschaftspflichtiger Manager, der einen jederzeit aus einer Laune heraus und ohne Einspruch entlassen kann“.*

Algorithmische Kontrolle wird auf vielfältige Weise ausgeübt, oft unter Umgehung direkter Befehle oder ausdrücklicher Anweisungen. Eine bahnbrechende Studie von Alex Rosenblat und Luke Stark über die Kontrollmechanismen der Taxi-Plattform Uber zeigt, wie die Bedingungen für Crowdwork leicht „durch den Einsatz einer Vielzahl von Designentscheidungen und Informationsasymmetrien durch das Unternehmen über die Anwendung geformt werden können, um eine ‚sanfte Kontrolle‘ über die Routinen der Arbeiter zu bewirken“. Auch wenn die Anweisungen „sorgfältig so gestaltet sind, dass sie indirekt sind, vermutlich um den Anschein 196 einer Unternehmensregel zu vermeiden“,* sind sie unglaublich mächtig.

Was mit spezifischen Managementaufgaben in der Gig-Economy begann, hat sich heute auf die gesamte Arbeitswelt ausgeweitet. Algorithmisches Management kann bereits vor der Aufnahme eines Arbeitsverhältnisses beginnen: Eine Vielzahl von Anbietern bietet Dienstleistungen vom Reputationsscreening und der Sortierung von Lebensläufen bis hin zur vollständigen Automatisierung des Interviewprozesses an. HireVue zB verspricht, „die mühsamsten und zeitaufwändigsten Einstellungsaktivitäten mit Konversations-KI, Videointerviews, Bewertungen und automatischer Terminplanung zu rationalisieren“, und Bewerber nach Merkmalen wie Problemlösung und Zuverlässigkeit bis hin zu Teamorientierung und emotionaler Intelligenz automatisch zu bewerten.*

Der Einsatz des algorithmischen Managements ist nicht auf eine bestimmte Region, einen bestimmten Wirtschaftszweig oder eine bestimmte Unternehmensgröße beschränkt – von Supermärkten bis zu professionellen Dienstleistungsunternehmen.* Vor allem in letzterem Kontext begann die Überwachung von MitarbeiterInnen oft als Teil umfassenderer Compliance-Regelungen, die den Aufsichtsbehörden vorgeschrieben wurden. Ein Fallbeispiel sind traders, die von zu Hause aus arbeiten: Der Handel ist stark reguliert, und es gibt strenge Anforderungen an den Arbeitsplatz – zB sichere Handelsräume ohne Zugang zu persönlichen Mobiltelefonen. Fernarbeit führt zu einer Veränderung des Risikos und erfordert zusätzliche Kontrollen und Abhilfemaßnahmen.* Was mit der Überwachung der Einhaltung von gesetzlichen Vorschriften beginnt, kann sich jedoch schnell zu einer viel intensiveren Überwachung entwickeln: 2020 überwachten bereits über 75 % der Finanzdienstleister in London die Produktivität ihrer MitarbeiterInnen.* Ähnliche algorithmische Management-Tools wurden auch eingesetzt, um individuelle Prognosen zum „Fluchtrisiko“ zur Konkurrenz zu erstellen oder die Stimmung von MitarbeiterInnen während eines feindlichen Übernahmeversuchs zu verfolgen.*

3.
Neue Herausforderungen?

In der Stellungnahme 2/2017 zur Datenverarbeitung am Arbeitsplatz hat die (damalige) Art-29-Datenschutzgruppe der Europäischen Union eine umfassende Überprüfung vieler der frühen Technologien vorgenommen, die dem Aufstieg der algorithmischen Verwaltung zugrunde liegen.* Auf dieser Grundlage sprach die Arbeitsgruppe eine Reihe von deutlichen Warnungen aus. Da rapide sinkende Kosten und zunehmende technische Möglichkeiten die algorithmische Verwaltung immer unsichtbarer und allgegenwärtiger machen,* könnten sich neue Technologien laut der Stellungnahme zB abschreckend auf die gewerkschaftliche Organisierung auswirken, eine zunehmende Konformität durch Überwachung schaffen, zu einer unvereinbaren Weiterverarbeitung einladen, und anonyme Whistleblowing-Meldungen behindern.* Einige Jahre später deuten mehr und mehr Medienberichte darauf hin, dass es sich hierbei nicht um abstrakte Gefahren handelt: Viele der hervorgehobenen Probleme haben bereits begonnen, sich im wirklichen Leben auszuwirken:*„Ausgefeilte Methoden zur Sammlung und Analyse von ArbeitnehmerInnendaten [sorgen dafür, dass] die Ermittlung von ArbeitnehmerInnen, die sich wahrscheinlich gewerkschaftlich organisieren werden, für jeden Arbeitgeber in Reichweite ist.“*Wolfie Christl, Autor einer der bislang größten und umfassendsten Studien über algorithmische Kontroll- und Überwachungspraktiken am Arbeitsplatz, kommt zu dem Schluss, dass „in vielen Bereichen der Arbeitswelt die Verarbeitung personenbezogener Daten ... praktisch allgegenwärtig geworden ist“.*

Der Missbrauch des Direktionsrechts ist natürlich kein neues Phänomen und auch nicht auf technologisch hoch entwickelte Arbeitsplätze beschränkt. Dennoch gibt es eine Reihe von Faktoren, die erklären, warum das Aufkommen automatisierter Managemententscheidungen ein besonders hohes Risiko darstellt. Die betreffenden Systeme unterscheiden sich in dreierlei Hinsicht von bestehenden Ansätzen: die Sammlung und Organisation von Daten, einschließlich digitaler und realer Informationen, sowie deren Aufbereitung in maschinenlesbaren Formaten; ihre Verarbeitung, die sich auf maschinelles Lernen und andere Techniken der „künstlichen Intelligenz“ stützt, die sich – grob gesagt – auf die Erkennung von Mustern und Korrelationen in Datensätzen konzentrieren; und die Art und Weise, wie die Kontrolle auf einer sehr granularen Ebene ausgeübt wird, und manchmal sogar ohne klare Anweisungen.*

Das soll nicht heißen, dass KI-Systeme keinen Nutzen haben. Dies wird besonders deutlich, wenn sie in begrenzten Kontexten und für bestimmte Zwecke eingesetzt werden, wie zB im Bereich der Sicherheit und des Gesundheitsschutzes am Arbeitsplatz. Im Nachzug der Covid-19-Pandemie versprechen algorithmische Managementsysteme zum Beispiel, die Rückkehr zur Büro- und Fabrikarbeit durch Systeme zu unterstützen, die ua ent- 197 sprechende Distanzierung, interne Kontaktverfolgung und Temperaturscreening gewährleisten.*

Gleichzeitig gibt es jedoch eine schnell wachsende Zahl empirischer Studien, die darauf hindeuten, dass Vorsicht geboten ist. „Wenn nicht alle Aspekte eines Arbeitsplatzes in gleichem Maße überwacht und die Leistung gesteuert werden können, müssen Arbeitgeber darauf achten, dass die Anstrengungen ihrer MitarbeiterInnen nicht durch Aufgaben verzerrt werden, die mehr oder weniger von der Technologie erfasst werden.“* Die schädlichen Auswirkungen des algorithmischen Managements reichen von der potenziell ernsten Gefahr materieller Gefährdung und algorithmischer Diskriminierung* bis hin zu starkem Stress am Arbeitsplatz. Automatisierte Zeitplanungs-Apps beispielsweise können etablierte Arbeitsmuster stören, indem sie die Arbeitsverteilung zufällig festlegen und es den AN unmöglich machen, Schichten im Voraus zu planen.* Algorithmische Systeme können auch dazu verwendet werden, einzelne AN gezielt zu verfolgen und anzusprechen. Einige Anbieter von Persönlichkeitstests vor der Einstellung versprechen sogar, dass sie in der Lage sind, MitarbeiterInnen herauszufiltern, die höhere Löhne fordern könnten, sich gewerkschaftlich organisieren wollten, oder eine gewerkschaftliche Organisierung unterstützen würden.*

4.
Rechtliche Möglichkeiten

Wie kann das (Arbeits-)Recht auf diese Herausforderungen reagieren? Algorithmisches Management führt zu Verwerfungen sowohl im Arbeitsrecht im traditionellen Sinne als auch in verwandten Regelungsbereichen, wie zB des Diskriminierungsrechts und des Datenschutzes.

4.1.
Das Kontroll-/Rechenschafts-Paradoxon

Gleichzeitig mit der dramatischen Konzentration der Kontrolle durch den AG können Schlüsselelemente des algorithmischen Managements auch dazu dienen, die Verantwortung zu zerstreuen: Die Frage, wer haften soll – das beschäftigende Unternehmen? Die Entwickler der Software? Die Anbieter von kontaminierten Trainingsdaten? – kann nicht mehr unbedingt mit den traditionellen Instrumenten des Arbeitsrechts beantwortet werden. Dies ist das grundlegende Paradoxon, das den Versuchen zugrunde liegt, das algorithmische Management mit bestehenden arbeitsrechtlichen Strukturen zu regeln.

Bisher waren die Mechanismen, mit denen die tatsächliche Kontrolle durch den AG bei „atypischer Arbeit“ verschleiert werden sollte, juristische Strategeme: von der Nutzung der Unternehmenspersönlichkeit (zB bei der Gründung von Tochteragenturen)* bis hin zum Vertragsrecht (zB bei der Einfügung von Klauseln über independent contractoing oder Selbstständigkeit in herkömmliche Arbeitsverträge)* bestand das Problem vor allem darin, dass „‚Heerscharen von AnwältInnen‘ Dokumente ausheckten ..., die die wahren Rechte und Pflichten auf beiden Seiten einfach falsch darstellten“.*

Zumindest im Prinzip ist es daher relativ einfach, auf Umgehungsversuche zu reagieren: rechtliche Mechanismen schaffen die Schwierigkeit, dem kontrollierenden AG Verantwortung zuzuweisen; man kann sich aber auch auf die bestehenden rechtlichen Mechanismen verlassen, um diese wiederherzustellen. Doktrinen wie der ‚Scheinvertrag‘ im englischen Recht ermöglichen es Gerichten, Selbständigkeitsklauseln zu durchschauen und sich auf die tatsächliche Kontrolle des AG zu konzentrieren; der Unternehmensschleier kann ebenso durchbrochen werden, um betrügerischen Missbrauch durch kontrollierende Muttergesellschaften zu bekämpfen.*

Die Herausforderung, die sich aus dem Aufkommen von People Analytics ergibt, ist hingegen eine völlig andere: Algorithmisches Management stützt sich nicht auf rechtliche Mechanismen zur Verschleierung der Kontrolle, um sich der Verantwortung zu entziehen – vielmehr sind, wie in den vorangegangenen Abschnitten gesehen, diffuse und potenziell unerklärliche Kontrollmechanismen dem Einsatz immer ausgefeilterer Bewertungssys teme und Algorithmen inhärent. Die Herausforderung besteht daher darin, sicherzustellen, dass die verantwortlichen Parteien sowohl für individuelle Normen (zB die Verantwortung für ungerechtfertigte Entlassungen) als auch für kollektive Normen (zB die Ermittlung des geeignetsten Ansprechpartners für Tarifverhandlungen) ermittelt werden können.

4.2.
Bereichsspezifische Herausforderungen

Die rechtlichen Herausforderungen beschränken sich nicht auf die traditionellen Grenzen des Arbeitsrechts. Neben den Schwierigkeiten bei der Anwendung bestehender Normen bringt das algorithmische Management auch neue Überlegungen in Bereichen wie dem Diskriminierungsrecht und dem Datenschutz mit sich.

4.2.1.
Diskriminierungsschutz

Die Herausforderung im Diskriminierungsrecht ist eine doppelte. In der Taxonomie der Diskriminierung, dh der unmittelbaren und der mittelbaren Diskriminierung sind Algorithmen in der Regel hauptsächlich in der letztgenannten Kategorie analysiert, welche scheinbar neutrale Praktiken, Kriterien oder Bestimmungen (‚PCPs‘) verbietet, die 198 in der Praxis Personen mit einem bestimmten geschützten Merkmal besonders benachteiligen.*

Das bedeutet erstens, dass AG die Verwendung von algorithmischen Managementsystemen als PCP rechtfertigen können, wenn sie nachweisen können, dass dies ein verhältnismäßiges Mittel zur Erreichung eines legitimen Ziels ist. Während finanzielle Erwägungen an sich in der Regel nicht ausreichen, um ein legitimes Ziel darzustellen, können andere Argumente wie das Erreichen der „besten Eignung“ oder das Auffinden der „leistungsstärksten BewerberInnen“ durchaus akzeptiert werden, insb wenn sie unter den gegebenen Umständen ein verhältnismäßiges Mittel darstellen (zB wenn es einen sehr großen BewerberInnenpool gibt). Das potenzielle Spektrum legitimer Ziele ist breit gefächert: „Die Verwendung eines Algorithmus zur Sichtung von Bewerbungen kann eine Umverteilung der Arbeitszeit der MitarbeiterInnen ermöglichen, so dass mehr BewerberInnen zu einem Vorstellungsgespräch eingeladen werden; sie kann bedeuten, dass mehr Bewerbungen geprüft werden können, so dass Gatekeeping-Maßnahmen – wie die Einstellung nur von ausgewählten Universitäten – nicht mehr erforderlich sind; und Arbeitgeber können sogar feststellen, dass die Verwendung des Algorithmus zu einer größeren diversity führt.“*

Selbst wenn diese Herausforderungen überwunden werden können, kann es weiters in der Praxis nahezu unmöglich sein, gegen algorithmische Diskriminierung zu klagen: Es ist sehr unwahrscheinlich, dass Einzelpersonen in der Lage sind, die erforderlichen Kenntnisse und/oder Beweise zu erlangen, um gegen voreingenommene Algorithmen vorzugehen. Kelly-Lyth kommt damit zum Schluss, dass „das geltende Recht die Rechte der Bewerber nicht schützen wird, solange die algorithmische Einstellung nicht transparenter wird“.*

4.2.2.
Datenschutz

Datenschutzvorschriften wie die Allgemeine Datenschutzverordnung der Europäischen Union („DSGVO“) können ein gewisses Maß an Schutz für AN in den Mitgliedstaaten der Union bieten.* Eine Veranschaulichung findet sich in der bereits Eingangs erwähten Stellungnahme 2/2017 der Art-29-Datenschutzgruppe zur Datenverarbeitung am Arbeitsplatz.*

Eine Reihe von Anforderungen der Datenschutz- Grundverordnung könnten sich auf den Einsatz von algorithmischem Management auswirken – darunter die Einschränkung, dass Daten „für festgelegte eindeutige und rechtmäßige Zwecke erhoben und nicht in einer Weise weiterverarbeitet werden müssen, die mit diesen Zwecken unvereinbar ist“;* die Notwendigkeit, eine Datenschutz-Folgenabschätzung durchzuführen, „wenn eine Art der Verarbeitung, insbesondere unter Verwendung neuer Technologien, unter Berücksichtigung der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung wahrscheinlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen birgt“,* und besondere Garantien für sensible personenbezogene Daten, einschließlich „rassischer oder ethnischer Herkunft, politischer Meinungen, religiöser oder philosophischer Überzeugungen oder der Mitgliedschaft in einer Gewerkschaft“.* Diese Verpflichtungen sind jedoch in erster Linie verfahrenstechnischer Art und dürften angesichts der anhaltenden Ungewissheit selbst über die Auswirkungen der wichtigsten Bestimmungen keinen sinnvollen Schutz gegen die meisten der in Abschnitt 2 genannten Schwierigkeiten bieten. Das Verbot, Personen Entscheidungen zu unterwerfen, die ausschließlich auf einer automatisierten Verarbeitung beruhen, in Art 22, zB, unterliegt einer Reihe von Ausnahmen,* über deren Bedeutung weiterhin gestritten wird.*

5.
Neue Regulierungsversuche

Auch über die im vorigen Abschnitt genannten Beispiele hinaus bietet das EU-Recht eine Reihe vielversprechender Möglichkeiten, um die mit Algorithmen am Arbeitsplatz verbundenen Risiken zu mindern. Das Zusammenspiel von Arbeitsrecht, Datenschutz und Antidiskriminierungsrecht ist zwar nicht in einer einzigen Maßnahme enthalten, hat aber das Potenzial, einen Grundstock an Rechten in den Mitgliedstaaten zu schaffen.*

Gleichzeitig ist es jedoch unwahrscheinlich, dass bestehende Regulierungsstrukturen in der Lage sein werden, in einer Welt der schnelllebigen technologischen Entwicklung einen umfassenden ANSchutz zu gewährleisten. Wie könnten neue Regelungen aussehen? Das vorgeschlagene KI-Gesetz der Europäischen Union wurde bereits in aktuellen Schriften ausführlich analysiert (und kritisiert);* die Diskussion hier wird sich stattdessen auf zwei neuere Maßnahmen konzentrieren – eine wurde auf nationaler Ebene erlassen, die andere als europäische Richtlinie vorgeschlagen –, welche beide das algorithmische Management in der Gig-Economy zum Ausgangspunkt haben.

5.1.
Das spanische ‚Rider-Gesetz‘

Die jüngsten spanischen Verordnungen sind das Ergebnis vom SozialpartnerInnen-Dialog, welcher 199 vor allem darauf abzielte, eine Beschäftigungsvermutung für Gig-Economy-Plattformen festzulegen. Ebenfalls enthalten sind jedoch auch detaillierte Informationsrechte über algorithmische Managementsysteme, die von AG eingesetzt werden – und zwar unabhängig davon, ob sie in der Gig-Economy oder in anderen Sektoren verwendet werden.*

Bestehende Bestimmungen über Informationsrechte der AN-Vertretungen werden dahingehend geändert, dass sie die Bereitstellung von Informationen über „die Parameter, Regeln und Anweisungen, auf denen die Algorithmen oder Systeme der künstlichen Intelligenz beruhen, die sich auf die Entscheidungsfindung auswirken und Auswirkungen auf die Arbeitsbedingungen und den Zugang zu und die Aufrechterhaltung von Arbeitsplätzen haben können, einschließlich der Erstellung von Profilen“, umfassen.* Entscheidend ist, dass diese Bestimmung einen viel umfassenderen Schutz bietet als zB Art 22 DSGVO, wie im vorherigen Abschnitt erörtert. Signes Todoli argumentiert, „selbst wenn der Algorithmus für die endgültige Entscheidung über den Arbeitnehmer nicht ausschlaggebend ist, seine bloße Verwendung bedeutet, dass die Informationsrechte der ArbeitnehmerInnenvertreterInnen ausgelöst werden“.* Die praktischen Auswirkungen dieser Änderung sind noch nicht absehbar. Kurzfristig gibt es jedoch Hinweise darauf, dass mehrere Plattformen erhebliche Anstrengungen unternommen haben, um die Anwendung des Gesetzes zu vermeiden.*

5.2.
Vorschlag für eine Richtlinie zur Plattformarbeit (2021)

Die Europäische Union hat ebenfalls vorgeschlagen, das algorithmische Management im spezifischen Kontext der Gig-Economy zu regulieren.* Eine kürzlich vorgeschlagene Richtlinie zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit sieht vor, dass Plattformen den AN Informationen über automatisierte Überwachungssysteme und Entscheidungsfindungssysteme zur Verfügung stellen müssen, welche die Arbeitsbedingungen „erheblich beeinflussen“.* Sie schreibt auch eine menschliche Überwachung der Auswirkungen solcher Systeme auf die Arbeitsbedingungen* sowie eine menschliche Überprüfung und eine schriftliche Begründung für wichtige Entscheidungen vor, wie zB die Entscheidung, das Konto einer AN zu sperren oder die Vergütung für geleistete Arbeit zu verweigern.*

Diese Vorschläge stützen sich auf Art 22 der Datenschutz- Grundverordnung, der einen begrenzteren, individuelleren Schutz vor automatisierter Entscheidungsfindung vorsieht. In dem neuen Vorschlag wird ausdrücklich darauf hingewiesen, dass die Datenschutz-Grundverordnung zwar einen Rahmen für die Datenverarbeitung vorgibt, dass aber im Kontext der Plattformarbeit spezifischere Regeln erforderlich sind.* Weiters gibt es Bestimmungen, die sich direkt auf kollektive Maßnahmen beziehen: Der Vorschlag bekräftigt das Recht auf kollektive Konsultation, das im bestehenden EU-Recht verankert ist,* und verlangt die Schaffung von unkontrollierten, plattforminternen Kommunikationskanälen für die gewerkschaftliche Organisierung.*

Diese Vorschläge sollten begrüßt werden – und idealerweise während des Gesetzgebungsverfahrens erweitert werden, um alle AN in den materiellen Anwendungsbereich der Maßnahmen einzubeziehen, das algorithmische Management weit über die Gig-Economy hinaus verbreitet ist. In der Mitteilung der Kommission wird erklärt, dass Plattformarbeit insofern ungewöhnlich ist, als es nur wenige „praktische Möglichkeiten für kollektive Vertretung und Organisation“ gibt. Es stimmt zwar, dass es in der traditionellen Fabrikhalle mehr Möglichkeiten für kollektives Engagement gab, aber viele traditionelle Arbeitsplätze gehen zunehmend zu hybriden Arbeitsmodellen über, bei denen die AN weit verstreut sind. Darüber hinaus schlägt die Kommission zwar vor, dass die SozialpartnerInnen in der Lage sein werden, „einen sozialen Dialog über algorithmisches Management im Rahmen der neuen Informations- und Konsultationsrechte zu initiieren“, geht aber nicht auf die Tatsache ein, dass dieselben Rechte für die SozialpartnerInnen an traditionellen Arbeitsplätzen ebenso wertvoll wären, um die Verwendung algorithmischer Managementinstrumente mitgestalten zu können.

6.
Conclusio

Wie die politischen Debatten der letzten Monate deutlich gemacht haben, werden diverse Kommission- Initiativen zur Regulierung von KI in der Arbeitswelt in den kommenden Monaten, wenn nicht gar Jahren, wahrscheinlich noch erhebliche Debatten und Änderungen erfahren. Die Debatte über den künftigen „europäischen Ansatz für KI“ ist daher noch lange nicht beendet. Wie die voran gegangene Diskussion über die Verheißungen und Gefahren des algorithmischen Managements gezeigt hat, werden erhebliche Änderungen und weitere Regulierungsanstrengungen erforderlich sein, um die Vision der Kommission von „KI, die für die Menschen arbeitet und eine Kraft für das Gute in der Gesellschaft ist“ zu verwirklichen und gleichzeitig die KI-Forschung, -Innovation und -Anwendung zu fördern.*200