Künstliche Intelligenz in der Arbeitswelt – Denkpause oder Tempo machen?
Welche Regeln braucht eine Arbeitswelt 4.0, die ganz wesentlich durch den Einsatz künstlicher Intelligenz geprägt sein wird? Mit dieser Frage befasst sich die Politik sowohl auf supra- wie auch auf nationaler Ebene seit langem, ohne jedoch bisher zu substantiellen Regelungen gelangt zu sein.So hat die Europäische Kommission unter anderem im Dezember 2022 einen Entwurf für eine Richtlinie zum Schutz der Rechte von Plattformarbeitskräften erarbeitet, der nun auf nationaler Ebene sehr kontrovers und noch ohne Einigung der Koalitionspartner diskutiert wird.
Inmitten der Debatte über eine angemessene Politik für eine Arbeitswelt 4.0 hat das Unternehmen Open AI die neue Künstliche Intelligenz-Software CHAT GPT für die breite Öffentlichkeit zugänglich gemacht. Die Suche nach politischen Lösungen für den Umgang mit KI erhielt dadurch eine ganz neue Dynamik. Der öffentliche Diskurs über den neuesten Technologiesprung im Bereich der Künstlichen Intelligenz zeigt, wie heterogen die Wahrnehmung und gesellschaftliche Bewertung dieser Technologie ist. Die Reaktionen reichen von Verboten (die dann aber wieder aufgehoben werden, wie in Italien) hin zur Forderung nach einer Zwangspause, formuliert von den relevanten Entscheidungsakteuren der Tech-Industrie selbst. Bundearbeitsminister Heil konstatiert hingegen in Interviews: „Es geht nicht darum, Tempo rauszunehmen, sondern es geht darum, selbst schnell zu sein“ (Tagesspiegel vom 29.04.2023). Ist das vernünftig? Oder nur eine krisengetriebene ad-hoc-Reaktion?
Die vergangenen Jahre waren dadurch geprägt, dass die Tech-Konzerne der Politik den Takt vorgaben, die Politik immer nur hinterherhinkte und im Nachgang versuchte, die Tatsachen zu regulieren, die die Tech-Konzerne geschaffen haben. Vor diesem Hintergrund ist es sicher richtig, dass es für politische Akteure nicht darum gehen kann, Tempo rauszunehmen, sondern selbst schnell zu sein. KI ist keine Technologie der Zukunft, sondern in der Arbeitswelt längst Gegenwart.
Regeln für eine Arbeitswelt 4.0 – inhaltliche und operative Dimension des Politischen zusammendenken
Das Bundesministerium für Arbeit und Soziales (BMAS) folgt bei der Erarbeitung eines regulatorischen Rahmens für KI in der Arbeitswelt einem klaren Kompass: „KI muss den Menschen dienen und nicht umgekehrt“, so der Bundesarbeitsminister in einem Twitter-Statement. Ganz ungeachtet der Frage, ob eine Versöhnung von Mensch und Technologie prinzipiell möglich ist, braucht es aus Sicht der verwaltungswissenschaftlichen Implementationsforschung für eine gelingende Regulation von KI in der Arbeitswelt vor allem eins: ausreichend Kapazitäten zur operativen Umsetzung politischer Regulation. Die Regulierung von Risikotechnologien kann nicht nur an den fehlenden gesetzlichen Normen scheitern, sondern auch und gerade an den fehlenden Kapazitäten zur Implementation und Durchsetzung dieser Normen. Neben den politischen Kapazitäten von Regulationsakteuren, also den Fähigkeiten zum Agenda Setting und der Organisation von Mehrheiten, sind für eine gelingende Regulation vor allem operative und analytische Kapazitäten relevant, die sowohl auf der Ebene individueller Entscheidungsakteure, der organisationalen Ebene staatlicher Institutionen sowie der Makro-Ebene des Gesamtsystems gegeben sein müssen.
Welche Anforderungen an die inhaltliche Ausgestaltung und operative Umsetzung einer sozialstaatlichen Regulierung von künstlicher Intelligenz können wir der aktuellen Forschung entnehmen?
Inhaltliche Anforderungen an die Regulierung von KI in der Arbeitswelt
In inhaltlicher Hinsicht muss ein regulatorischer Rahmen für KI in der Arbeitswelt mindestens drei Aspekte leisten. Er muss erstens Antworten auf quantitative Verschiebungen in der Arbeitsmarktstruktur finden. Durch den Einsatz von KI werden sowohl Arbeitsplätze wegfallen wie auch neue entstehen. In welchem Verhältnis Verluste und Gewinne stehen, ist wissenschaftlich noch offen. Klar ist aber, dass Beschäftigte, deren Arbeit durch Technologie substituiert wurde, in aller Regel nicht einfach in neu entstehende Tätigkeits- und Berufsfelder wechseln können, sondern hierfür sozialstaatliche Unterstützung benötigen (Qualifizierung, aber auch Lohn- bzw. Einkommensersatz).
Eine sozialstaatliche Regulierung von Künstlicher Intelligenz muss zweitens klären, wie in einer Arbeitswelt voller Algorithmen faire und gute Arbeitsbedingungen garantiert werden können. Dies gilt für die abhängig Beschäftigten im industriellen Sektor 4.0; dies gilt aber auch für die quasi-selbstständigen Gig- und Clickworker*innen der Plattformökonomie, in der Arbeitssteuerung und das Management der Beschäftigten auf Algorithmen basieren. Wenngleich es gesellschaftlicher Konsens ist, dass es für KI in der Arbeitswelt Regeln und Mechanismen zur Überprüfung der Einhaltung dieser Regeln bedarf, so zeichnet sich hier noch lange kein Konsens ab, was geeignete Regulierungsinstrumente und -inhalte sind. Faire und gute Arbeitsbedingungen muss der Staat schließlich auch für seine eigenen Arbeitsfelder gewährleisten. Gerade die Sozialstaatsverwaltung, wo der Staat als Arbeitgeber fungiert, ist in hohem Maße für den Einsatz von künstlicher Intelligenz prädestiniert.
Eine sozialstaatliche Regulierung von Künstlicher Intelligenz muss drittens klären, wie in einer algorithmisch gesteuerten Sozialstaatsverwaltung Diskriminierung durch algorithmische Entscheidungsfindung vermieden werden kann und wie Bürger*innen ein gerechter und barrierefreier Zugang zu Leistungen ermöglicht wird.
Voraussetzungen für eine gelingende Implementation von politischer Regulation: operative und analytische Kapazitäten
Parallel zur inhaltlichen Ausgestaltung einer sozialstaatlichen Regulation von KI in der Arbeitswelt muss der Staat für hinreichende Kapazitäten zur Implementation der vereinbarten Regeln Sorge tragen. Mit operativen Kapazitäten ist der ‚Unterbau‘ an (öffentlichen, privaten und zivilgesellschaftlichen) Akteuren gemeint, die mit der Durchsetzung von Normen betraut sind bzw. Regulierung co-produzieren. Operative Kapazität manifestiert sich in den personellen, finanziellen und technologischen Ressourcen der Implementationsakteure, in den Mechanismen zur Koordination und zur Einforderung von Rechenschaft sowie in (individuellen und organisationalen) Implementationsstilen, was etwa das Ausüben von Ermessen betrifft. Die operativen Kapazitäten zur Kontrolle der bisherigen - ohnehin nur sehr schwachen! - Standards sind völlig unterentwickelt. Codes of conduct für faire Arbeitsbedingungen basieren nur auf der Selbstverpflichtung der Plattformbetreiber und haben kaum Reichweite. Zwar gibt es Ideen, wie (quasi)öffentliche Akteure wie etwa der TÜV in die Zertifizierung von Gütesiegeln für Plattformarbeit eingebunden werden können. Gegenwärtig besteht aber ein unkoordiniertes Nebeneinander unterschiedlicher Regulierungsakteure und -instrumente (Selbstverpflichtung, Ombudspersonen, tradierte Akteure der industriellen Beziehungen).Analytische Kapazitäten wiederum bezeichnen den Zugriff auf und die Nutzung von handlungsrelevantem Wissen. Dabei steigen die analytischen Kapazitäten, wenn sich die Implementationsakteure handlungsrelevantes Wissen sowohl in Eigenregie (z.B. durch ex-ante-Gesetzesfolgenabschätzung oder ex-post-Evaluationen) als auch durch ein breites und heterogen besetztes Netzwerk externer Expertise erarbeiten.
Im Bereich der analytischen Kapazitäten sind in den vergangenen Jahren durchaus Weiterentwicklungen zu verzeichnen. Das BMAS hat sich eine eigene ‚Denkfabrik‘ zur Digitalisierung der Arbeitswelt geschaffen, in der sich wiederum ein Observatorium Künstliche Intelligenz (KI-Observatorium) speziell mit den Auswirkungen von KI auf Arbeit und Gesellschaft auseinandersetzt. Auch weitere öffentlich berufene Expertengremien außerhalb des engen Handlungsfelds des BMAS setzen sich mit den Herausforderungen einer Arbeitswelt 4.0 auseinander, so etwa der Deutsche Ethikrat in seiner jüngsten Stellungnahme zu „Mensch und Maschine“.
Gerade die Stellungnahme des Ethikrates zeigt aber eindrücklich, dass der Aufbau von Wissensressourcen nicht mit der Nutzung dieses Wissens zu verwechseln ist. Zwar positioniert sich die Denkfabrik des BMAS klar für die Entwicklung einer menschenzentrierten KI. Die Forschung zum Einsatz von KI in der öffentlichen Verwaltung macht aber deutlich, dass KI-gestützten Entscheidungssystemen, die Tendenz innewohnt, menschliche Handlungsspielräume zu verringern. Das gilt selbst dann, wenn die Systeme menschlichen Akteuren ausdrücklich das Letztentscheidungsrecht gewähren! Die Ursache wird in Massenverfahren, die durch stark routinisierte Abläufe geprägt sind, gesehen, aber auch Arbeitsüberlastung, gekoppelt mit Entscheidungsdruck – Entscheidungssituationen also, die charakteristisch für die Sozialstaatsverwaltung sind. Der Ethikrat empfiehlt der Politik daher, dringend über geeignete technische und organisatorische Instrumente nachzudenken, die es den Fachkräften erschweren, selbst bei einer Letztentscheidungskompetenz der algorithmischen Entscheidungsempfehlung unbesehen zu folgen und der Maschine den Vortritt zu lassen.
Tempo machen muss das Bundesarbeitsministerium also gleich in mehrfacher Hinsicht: bei der Regelsetzung für eine faire Arbeitswelt 4.0 in der Privatwirtschaft, beim Aufbau von operativen und analytischen Kapazitäten zur Durchsetzung und Überwachung dieser Regeln sowie auch beim Aufbau von operativen und analytischen Kapazitäten im Umgang mit KI beim ‚eigenen‘ Personal in der Sozialstaatsverwaltung.
Tanja Klenk 2023, Künstliche Intelligenz in der Arbeitswelt – Denkpause oder Tempo machen?, in: sozialpolitikblog, 25.05.2023, https://www.difis.org/blog/?blog=63 Zurück zur Übersicht
Prof. Dr. Tanja Klenk ist Professorin für Verwaltungswissenschaft an der Helmut-Schmidt-Universität Hamburg. In ihrer Forschung befasst sie sich insbesondere mit der Frage, wie sich die Organisation und Steuerung der (sozial)staatlichen Leistungserbringung vor dem Hintergrund von politischem, sozialem oder technischem Wandel (wie z.B. Liberalisierung/ Vermarktlichung der Daseinsvorsorge, Internationalisierung, Digitalisierung) verändert.