Kein Arbeitsplatzabbau durch KI – OECD-Studie

Künstliche Intelligenz (KI) kann in einem sehr breiten Feld Aufgaben übernehmen, die davor von Menschen geleistet wurden. Zu einem Abbau von Jobs ist es deshalb aber noch nicht gekommen – allenfalls hat KI-Nutzung das Beschäftigungswachstum verlangsamt, ergab eine OECD-Studie mit österreichischer Beteiligung.

Der Untersuchung der OECD in Kooperation mit der KMU Forschung Austria liegen knapp 100 Fallstudien in acht Ländern zugrunde, davon 18 aus Österreich. Unterstützung gab es vom Sozialministerium. Hinweise auf Kündigungen wegen der KI „finden sich in den Fallstudien nur in begrenztem Umfang“, so die Studie. In den wenigen Fällen seien die Betroffenen in anderen Bereichen des Unternehmens untergekommen. Teilweise habe es aber keine Nachbesetzungen von Pensionierungen oder natürlichen Abgängen gegeben, wenn Aufgaben von einer KI übernommen wurden.

Im Gegenzug habe starke Nachfrage zu mehr Beschäftigung in Berufen mit KI-Bezug geführt. Auch auf dem Gebiet der KI selber seien neue Arbeitsplätze entstanden. „KI-Nutzung führt eher zur Umorganisation von Tätigkeiten als zu tatsächlichen Arbeitsplatzverlusten“, heißt es in der OECD-Studie. Teils werde die KI als Unterstützung genutzt, damit Menschen schneller, fehlerfreier oder sicherer arbeiten können, ohne dass sich ihr Tätigkeitsprofil grundlegend ändert.

Wegfall monotoner Aufgaben

Häufig habe die Arbeitsersparnis durch KI zu mehr Bedarf an menschlicher Arbeit im Umfeld der KI geführt. „Die anderen Aufgaben waren in der Regel Tätigkeiten, bei denen menschliche Arbeitskräfte nach wie vor über komparative Vorteile verfügen“, so die OECD. Tätigkeiten, die Empathie, soziale Interaktion und bestimmte Arten der Entscheidungsfindung erfordern, würden „wahrscheinlich immer besser von Menschen erledigt werden“, so die Einschätzung der Befragten in den Fallstudien.

Die Auswirkungen auf das Kompetenzniveau sind laut Studie differenziert zu sehen. Bei einem großen Teil sei im neuen Umfeld keine zusätzliche Kompetenz nötig, aber bei einem „wesentlichen Anteil der Fallstudien“ waren höhere und breiter gestreute Kompetenzen nötig. Nur im verarbeitenden Sektor gab es auch Beispiele, wo die Kompetenzanforderungen wegen der Automatisierung sanken.

„Die Fallstudien liefern überzeugende Belege dafür, dass KI die Beschäftigungsqualität erhöht“, so die Studie. Oft fielen monotone Inhalte weg, die Arbeit werde interessanter und auch das Arbeitspensum sinke. Es könne aber auch die Arbeitsintensität wegen höheren Leistungszielen steigen. Nun seien politische Weichenstellungen entscheidend. Würden Beschäftigte bei der Einführung von KI eingebunden, verringere das die Furcht vor einem Arbeitsplatzverlust und stärke ihre Bereitschaft, sich mit KI-Technologien auseinanderzusetzen.

Studie – Künstliche Intelligenz in der Arbeitswelt

Die Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ leistet einen wichtigen Beitrag zu der gesellschaftlich notwendigen Debatte zum Einsatz von KI in der Arbeitswelt. „Als Gewerkschaft wollen wir mit den Arbeitnehmerinnen und Arbeitnehmern den Einsatz Künstlicher Intelligenz so gestalten, dass es auch in Zukunft Gute Arbeit für alle gibt. Nur wenn die Technik den Menschen nicht steuert, sondern ihn in seiner Arbeit unterstützt, kann KI zu einem Erfolgsmodell für Beschäftigte und Unternehmen werden“, sagte ver.di-Bundesvorstandsmitglied Christoph Schmitz. „Dazu müssen wir die Effekte des KI-Einsatzes verstehen, und dafür leisten gerade die Feldstudien des gemeinsamen Forschungsprojektes einen wichtigen Beitrag.“

„KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“

Christoph Schmitz, ver.di-Bundesvorstandsmitglied

Der Einsatz Künstlicher Intelligenz löse derzeit bei vielen Arbeitnehmerinnen und Arbeitnehmern Sorgen und Ängste aus, so Schmitz weiter. „Selbststeuernde Prozesse führen zu einer neuen Arbeitsteilung zwischen Mensch und Maschine, ohne dass diese bisher ausreichend erforscht ist.“ Drängende Fragen der Kontrolle, der Ent- oder Belastung, der Qualifizierung und der Beschäftigungssicherung müssten geklärt werden. „Die Einführung von KI kann die Arbeitsqualität verbessern, wenn die Kriterien von Guter Arbeit schon vor der Implementierung berücksichtigt werden.“

Bereits im März dieses Jahres hatte ver.di „Ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ veröffentlicht. Schmitz: „Künstliche Intelligenz ist Werkzeug, Mittel zum Zweck. KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“ KI-Systeme seien so zu gestalten, dass die Handlungs- und Gestaltungsspielräume der Erwerbstätigen erweitert werden. „Tätigkeiten sind durch gezielte Qualifizierung aufzuwerten. Dies kann durch Tarifverträge flankiert und durch neue Stellenzuschnitte unterstützt werden.“

Die am 9. Dezember 2020 veröffentlichte Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ zeigt Erfahrungen mit dem Einsatz von KI in der Arbeitswelt an zwei Fallbeispielen: Bei Siemens in der Personalverwaltung wurde der Chatbot CARL erprobt, ein Assistenzsystem, das wie ein menschlicher Second Level Support im Hintergrund unterstützt. Bei der Telekom wurde die Robotic Desktop Application PIA erforscht, ein persönlicher interaktiver Assistent, der im Hintergrund vorhandene Daten mit neuen Daten verknüpft. Das Prinzip dahinter ist, dass KI große Datenmengen schneller analysieren und durchforsten kann.

Regulierung von Künstlicher Intelligenz

Der Chef des ChatGPT-Entwicklers OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe künstlicher Intelligenz (KI) – und hat sich für eine strikte Regulierung ausgesprochen.

Allein wegen der benötigten erheblichen Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman gestern in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen. Altmans OpenAI löste mit ChatGPT sowie der Software, die Bilder auf Basis von Textbeschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

Falschinformationen schwer erkennbar

ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist.

Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für künstliche Intelligenz solle eine Reihe von Sicherheitstests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Umwälzungen in der Arbeitswelt

Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, „viel bessere Arbeitsplätze“ zu schaffen.

Während der Anhörung in einem Senatsunterausschuss schloss Altman nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.

WHO warnt vor ungesteuerter KI-Anwendung

Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte gestern einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

KI-Technologie könnte aus Sicht der WHO auch missbraucht werden, um Desinformation als seriös wirkende Inhalte zu tarnen. Außerdem befürchtet die WHO, dass KI-Systeme unerlaubt auf sensible Gesundheitsdaten zugreifen.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen.