Studie – Künstliche Intelligenz in der Arbeitswelt

Die Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ leistet einen wichtigen Beitrag zu der gesellschaftlich notwendigen Debatte zum Einsatz von KI in der Arbeitswelt. „Als Gewerkschaft wollen wir mit den Arbeitnehmerinnen und Arbeitnehmern den Einsatz Künstlicher Intelligenz so gestalten, dass es auch in Zukunft Gute Arbeit für alle gibt. Nur wenn die Technik den Menschen nicht steuert, sondern ihn in seiner Arbeit unterstützt, kann KI zu einem Erfolgsmodell für Beschäftigte und Unternehmen werden“, sagte ver.di-Bundesvorstandsmitglied Christoph Schmitz. „Dazu müssen wir die Effekte des KI-Einsatzes verstehen, und dafür leisten gerade die Feldstudien des gemeinsamen Forschungsprojektes einen wichtigen Beitrag.“

„KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“

Christoph Schmitz, ver.di-Bundesvorstandsmitglied

Der Einsatz Künstlicher Intelligenz löse derzeit bei vielen Arbeitnehmerinnen und Arbeitnehmern Sorgen und Ängste aus, so Schmitz weiter. „Selbststeuernde Prozesse führen zu einer neuen Arbeitsteilung zwischen Mensch und Maschine, ohne dass diese bisher ausreichend erforscht ist.“ Drängende Fragen der Kontrolle, der Ent- oder Belastung, der Qualifizierung und der Beschäftigungssicherung müssten geklärt werden. „Die Einführung von KI kann die Arbeitsqualität verbessern, wenn die Kriterien von Guter Arbeit schon vor der Implementierung berücksichtigt werden.“

Bereits im März dieses Jahres hatte ver.di „Ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ veröffentlicht. Schmitz: „Künstliche Intelligenz ist Werkzeug, Mittel zum Zweck. KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“ KI-Systeme seien so zu gestalten, dass die Handlungs- und Gestaltungsspielräume der Erwerbstätigen erweitert werden. „Tätigkeiten sind durch gezielte Qualifizierung aufzuwerten. Dies kann durch Tarifverträge flankiert und durch neue Stellenzuschnitte unterstützt werden.“

Die am 9. Dezember 2020 veröffentlichte Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ zeigt Erfahrungen mit dem Einsatz von KI in der Arbeitswelt an zwei Fallbeispielen: Bei Siemens in der Personalverwaltung wurde der Chatbot CARL erprobt, ein Assistenzsystem, das wie ein menschlicher Second Level Support im Hintergrund unterstützt. Bei der Telekom wurde die Robotic Desktop Application PIA erforscht, ein persönlicher interaktiver Assistent, der im Hintergrund vorhandene Daten mit neuen Daten verknüpft. Das Prinzip dahinter ist, dass KI große Datenmengen schneller analysieren und durchforsten kann.

WHO warnt vor ungesteuerter KI-Anwendung

Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte gestern einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

KI-Technologie könnte aus Sicht der WHO auch missbraucht werden, um Desinformation als seriös wirkende Inhalte zu tarnen. Außerdem befürchtet die WHO, dass KI-Systeme unerlaubt auf sensible Gesundheitsdaten zugreifen.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen.

Fachthema AMS-Algorithmus – wissenschaftliche Kritik

Wir sind fünf Wissenschaftler*innen von der TU Wien, der WU Wien und der Universität Wien, mit einem diversen Hintergrund in Künstlicher Intelligenz, Mathematik, Wirtschaftsinformatik, Kognitionswissenschaften, Sozialwissenschaften und Wissenschafts- und Technikforschung (STS). Wir forschen seit einiger Zeit zum AMS-Algorithmus und wundern uns über die aktuelle Debatte zum  AMS -Algorithmus.

Echte Transparenz

Immer wieder wurde seitens des AMS von Transparenz in Bezug auf den AMS-Algorithmus gesprochen. Ob und inwiefern Transparenz in einem produktiven Ausmaß vorliegt, misst sich daran, inwieweit ein wissenschaftlicher Diskurs möglich ist, der auf belegbaren Fakten und Daten basiert. Echte Transparenz würde bedeuten, dass ebendiese belegbaren Fakten und Daten seitens des AMS bereitgestellt werden. Leider wurde dem bisher nicht in zufriedenstellender Weise nachgekommen: Von den 96 Modellvarianten, die sich zu dem algorithmischen System bündeln, wurden nur zwei veröffentlicht, und eine davon erst auf Anfrage. Auch die entsprechenden Fehlerquoten der 96 Modellvarianten sind weitestgehend unbekannt.

Dass es überhaupt eines regen Schriftverkehrs und mehrerer Anfragen bedarf, um auch nur einen Bruchteil der benötigten Informationen zu erhalten, ist unzumutbar und widerspricht dem Postulat der Transparenz. Vielmehr sollte das AMS als Träger von öffentlicher Verantwortung der versprochenen Transparenz eigeninitiativ nachkommen und Anstrengungen unternehmen, die entsprechenden Modellvarianten, Daten und Fakten belegbar, nachvollziehbar und hinreichend anonymisiert aufzubereiten, um eine Analyse im Zuge eines breiten demokratischen Diskurses zu ermöglichen. Die Beurteilung, inwieweit Transparenz für eine ausreichende wissenschaftliche Debatte vorliegt, obliegt der Wissenschaft und kann nicht durch Behauptungen durch Verantwortliche des AMS auf ihren privaten Internet-Seiten ersetzt werden. Derartige Veröffentlichungen auf privaten Kanälen sind nicht überprüfbar und unterliegen keiner angemessenen Kontrolle durch rechtsstaatliche Institutionen. Stattdessen ist die Kommunikation auf den entsprechenden offiziellen Kanälen des AMS, bei der echte Transparenz gelebt werden sollte, zu führen.

Wissenschaft lebt von einer kritischen Auseinandersetzung mit einer gemeinsamen Informationsgrundlage. Diese gemeinsame Informationsgrundlage existiert im Moment beim AMS-Algorithmus nicht und muss dringend hergestellt werden. Dies ist insofern bemerkenswert, dass sich diese gemeinsame Informationsgrundlage auch nach einer einjährigen medialen Debatte kaum geändert hat. Die Öffentlichkeit weiß fast genauso wenig wie vor einem Jahr über den tatsächlichen Einsatz von automatisierten Systemen beim AMS.

Um welche Technik geht es eigentlich?

Anders als vom AMS-Vorstand dargestellt, basiert der AMS-Algorithmus sehr wohl auf Trainingsdaten, in Form der Personendaten der vorhergehenden 4 Jahre und E

x-post Beobachtungen des Ausganges, und produziert Prognosen anhand der genannten 96 statistischen Modelle. Damit ist das System denselben Fehlerquellen – wie etwa Bias – unterworfen wie andere Systeme, die auf Trainingsdaten aufbauen. Jenseits von Fragen der Begriffsdefinition, was genau AI/KI sei oder nicht, sollte sich die Diskussion jedoch eher auf die Anwendbarkeit und Sinnhaftigkeit der gewählten technischen Methode sowie ihrer Risiken und Probleme konzentrieren.

Der zunehmende Trend zur Automatisierung von Verwaltungstechnologien geht auch mit einer besonderen Verantwortung gegenüber den Bürger*innen im Einzelnen und der Gesellschaft im Allgemeinen einher: Insbesonders ist es in diesem Kontext absolut geboten, Menschen im Zentrum dieser Systeme mit Würde und als Ganzes zu verstehen, anstatt eine reduktionistische Datensicht zum Maßstab des Erfolgs des Systems heranzuziehen. Es sollte hier eine Selbstverständlichkeit sein, dass ein solches System nicht ohne externe Evaluierung an teilweise strukturell benachteiligten Personengruppen pilotiert wird, bevor das System ausgereift ist und auch von unabhängigen wissenschaftlichen Expert*innen als solches bestätigt wurde – eine Forderung, die seit dem Bekanntwerden der ‚Evaluierungsphase‘ vom Oktober 2018 unbeantwortet bleibt.

Einsatz von Algorithmen als Grundsatzfrage

Der Einsatz derartiger automatisierter Systeme durch die öffentliche Hand ist eine Grundsatzentscheidung und muss in einer demokratisch legitimierten Gesellschaft auch gesamtgesellschaftlich diskutiert werden. Ein Teil dieses Diskurses ist hinreichende Transparenz; diese ist erst dann ausreichend, wenn sie die Adressat*innen ausreichend dazu befähigt, diesen Diskurs zu führen. Diese Debatte ist bisher nur angerissen worden; es stehen noch viele unbeantwortete Fragen aus, ohne deren Beantwortung eine tatsächlich transparente gesellschaftliche Debatte nicht möglich ist. Um darauf einzugehen, sind belegbare Daten und Fakten notwendig.

Dazu sei auch gesagt, dass die aktuelle Anwendung des AMS-Algorithmus in vielerlei Hinsicht nicht internationalen Standards entspricht. So hat der Europarat Anfang 2018 Empfehlungen für den öffentlichen Einsatz von Algorithmenveröffentlicht, (zu den Autor*innen gehört unter anderem einer der Autor*innen dieses Beitrags, Ben Wagner), die im Widerspruch stehen zum aktuellen Einsatz von Algorithmen durch das AMS. Auch diverse Kolleg*innen aus der Wissenschaft warnen explizit vor dem aktuellen Einsatz von Algorithmen durch das AMS, sowohl in Medienberichten als auch auf wissenschaftlichen Veranstaltungen, wie etwa eine Veranstaltung der Universität Wien zu Algorithmen in der Arbeitsvermittlung vom 23. April 2019. Auf dem Stand der Technik zu sein würde auch bedeuten, neben Transparenz auch die Endnutzer*innen wie Arbeitssuchende und AMS Betreuer*innen in den Prozess der Entwicklung von Informationssystemen einzubeziehen, um sicherzustellen, dass ihre Bedürfnisse und Ansichten gut berücksichtigt werden.

Mehr Lesen