Enormer Wettbewerb um KI-Fachleute

Der Wettlauf der großen Tech-Firmen um die Weiterentwicklung künstlicher Intelligenz (KI), begleitet von einem großen Anwachsen von KI-Start-ups, verschlingt Milliarden. Selbst finanziell bessergestellte Eliteunis wie Stanford hinken hier hinterher und damit auch die Chancen für eine unabhängige KI-Forschung. Zugleich ringt die Politik um die Regulierung von KI. Am Mittwoch stimmt das EU-Parlament über den AI Act als KI-Regelwerk in der EU ab.

Zugleich locken die Tech-Firmen mit enormen und zuletzt auch stark gestiegenen Gehältern KI-Fachleute von den Unis. Ein durchschnittliches Gehalt für einen KI-Experten bei Meta lag laut der Gehaltsüberblicksseite Levels.fyi im vergangenen Jahr bei jährlich über 335.000 Dollar (rund 306.000 Euro), 2020 waren es noch 256.000 Dollar. Nach oben sind den Gehältern bei mehr Erfahrung und herausragenden Leistungen keine Grenzen gesetzt, diese können in den Millionenbereich gehen. Denn der Kampf um die besten Talente für die KI-Entwicklung wird durch den Zuwachs an Start-ups zusätzlich angetrieben.

Enorme Ressourcenlücke

Die Lücke zwischen verfügbaren Ressourcen von Unternehmen wie Meta, Google und Microsoft auf der einen Seite und Universitäten auf der anderen Seite ist enorm, wie man etwa am Beispiel der notwendigen Computerchips sieht. Mit einer Graphics Processing Unit (GPU) sollen mathematische Berechnungen für KI-Modelle besonders schnell durchgeführt werden.

Meta will 350.000 solcher GPUs beschaffen. Die Abteilung der Stanford University, die sich mit KI beschäftigt, verfügt über insgesamt 68 GPUs. Das Ungleichgewicht macht sich bereits an den Ergebnissen bemerkbar.

Laut einem Bericht der Stanford University wurden im Jahr 2022 32 wichtige Modelle für maschinelles Lernen in der Tech-Industrie geschaffen, drei wurden an Universitäten entwickelt. Noch vor zehn Jahren gelangen hingegen der universitären Forschung die meisten Durchbrüche im Bereich der KI, so der Bericht. Auch der Anteil der Uniabsolventen und -absolventinnen, die in die Privatwirtschaft wechseln, anstatt an der Uni zu bleiben, habe sich im Vergleich zu vor 20 Jahren mehr als verdreifacht, berichtete die „Washington Post“.

Warnung vor rein gewinnorientierter Forschung

Auch wenn schon einige Schritte Richtung stärkerer öffentlicher Finanzierung gesetzt wurden, gibt es noch enormen Nachholbedarf. „Der öffentliche Sektor hinkt bei den Ressourcen und Talenten im Vergleich zur Industrie deutlich hinterher“, sagte die Stanford-Professorin und KI-Pionierin Fei-Fei Li gegenüber der „Washington Post“.

Sie ist ein wichtiges Sprachrohr einer wachsenden Gruppe an Forschern und Politikern, die sich für eine stärkere staatliche Unterstützung und Förderung der öffentlichen KI-Forschung einsetzen. Der Fokus auf die Privatwirtschaft habe Auswirkungen auf die Inhalte der Forschung, warnt sie. Denn die Tech-Firmen seien gewinnorientiert und richten die Entwicklung der KI-Technologie auf dieses Ziel aus.

Weniger Freiheit für Wissenschaftler

Zwar rühmte sich so manches Tech-Unternehmen, darunter Google, die KI-Forschungsergebnisse schnell der Öffentlichkeit zur Verfügung zu stellen. Und vielfach waren die Forschungsabteilungen der Unternehmen von den Abteilungen für die Produktentwicklung abgekoppelt und konnten über die Forschung ähnlich entscheiden wie an Unis, heißt es von Insidern.

Diese Strategie und die Freiheit für die Forschenden scheint sich Berichten zufolge allmählich aber zu ändern. Google begann im vergangenen Jahr etwa, seine Forschungsergebnisse erst zu veröffentlichen, als daraus bereits konkrete Produkte entstanden waren. Auch Meta spannt nun die Forschungsagenden enger mit der Produktabteilung zusammen. „Ein gewisses Maß an Übereinstimmung sei hilfreich für das Unternehmen“, argumentierte Meta.

Regulierung von KI

Stanford-Professorin Li hofft, dass das parteiübergreifende Gesetzesvorhaben in den USA, der Create AI Act, das Ungleichgewicht zwischen Privatkonzernen und öffentlichen Einrichtungen eindämmen kann. Es brauche Regulierung, meinte Li Ende vergangenen Jahres in einem Interview mit dem „Spiegel“. Die Diskussionen dazu laufen, erste Schritte wurden gesetzt. Eine von US-Präsident Joe Biden erlassene KI-Verordnung von Ende vergangenen Jahres etwa verpflichtet KI-Anbieter zu Sicherheitstests bei Risiken für die nationale Sicherheit sowie die öffentliche Gesundheit.

Herausforderung für Washington bei der Regulierung von KI sei, die Führungsposition der USA bei der KI-Entwicklung zu sichern und zugleich die Bürger und Bürgerinnen vor potenziellen Gefahren der Technologie zu schützen, analysiert das „Time“-Magazin.

Am Mittwoch soll nun das EU-Parlament über den AI Act abstimmen. Damit will sich die EU ein KI-Regelwerk geben, um bei riskanten Anwendungen neuer Technologien gewappnet zu sein und vor allem soziale Schäden etwa durch Diskriminierung abwenden. Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. Entwickler sollen zudem klar erkennbar machen, wenn Texte, Bilder und Videos auf den Einsatz von KI zurückzuführen sind.

Mensch-Roboter-Interaktion

„Teamwork ist zweischneidig. Es kann Menschen zu guten Leistungen motivieren, aber auch zu einem Verlust der Motivation führen, weil der individuelle Beitrag nicht so sichtbar ist“, sagt Helene Cymek von der Technischen Universität Berlin, Erstautorin einer soeben im Fachmagazin „Frontiers in Robotics and AI“ veröffentlichten Studie. „Uns hat interessiert, ob wir solche Motivationseffekte auch finden können, wenn der Teampartner ein Roboter ist.“

Fehlerkontrolle von Leiterplatten

Um die Frage zu beantworten, baten sie 42 Versuchsteilnehmer und -teilnehmerinnen ins Labor. Diese sollten dort Leiterplatten, also elektronische Bauteile, auf Fehler untersuchen. Die Platten waren auf einem Monitor nur unscharf zu erkennen; die geschärften Bilder konnten nur betrachtet werden, wenn man mit der Maus darüberfuhr. Dies ermöglichte es, die Fehlerkontrolle der Teilnehmer und Teilnehmerinnen genau zu verfolgen.

Der Hälfte von ihnen sagten die Psychologinnen um Cymek, dass sie auf Leiterplatten arbeiteten, die zuvor von einem Roboter („Panda“) kontrolliert worden waren. Obwohl diese Teilnehmer nicht direkt mit dem Roboter arbeiteten, hatten sie ihn gesehen und konnten ihn hören, während sie arbeiteten. Nachdem alle Teilnehmerinnen und Teilnehmer die Tafeln auf Fehler untersucht und bewertet hatten, wurden sie gebeten, ihre eigene Leistung zu bewerten – etwa wie verantwortlich sie sich für die Aufgabe gefühlt hatten.

Gleich „schauen“ heißt nicht gleich „sehen“

Auf den ersten Blick sah es so aus, als hätte die Anwesenheit von „Panda“ keinen Unterschied gemacht – es gab keinen statistisch signifikanten Unterschied zwischen den Gruppen in Bezug auf die Zeit, die für die Kontrolle der Leiterplatten aufgewendet wurde, und auf den durchsuchten Bereich. Beide Gruppen bewerteten ihr Verantwortungsgefühl für die Aufgabe, den Aufwand und die Leistung ähnlich.

Als die Psychologinnen jedoch die tatsächlichen Fehlerraten genauer untersuchten, zeigten sich deutliche Unterschiede. „Panda“ hatte nämlich absichtlich fünf Fehler eingebaut. Die Gruppe, die mit ihm zusammenarbeitete, entdeckte davon durchschnittlich 3,2. Bei der Gruppe ohne Roboterhilfe waren es hingegen 4,2 – also deutlich mehr. Die Probandinnen und Probanden der ersten Gruppe dachten zwar, dass sie der Aufgabe gleich viel Aufmerksamkeit geschenkt hatten, unbewusst gingen sie aber offenbar davon aus, dass „Panda“ keine Fehler übersehen hatte – sie haben zwar gleich „geschaut“, aber nicht gleich „gesehen“.

„Es ist leicht zu verfolgen, wohin eine Person schaut, aber viel schwieriger zu sagen, ob diese visuellen Informationen mental ausreichend verarbeitet werden“, sagt Linda Onnasch, Psychologin an der Humboldt Universität Berlin und Seniorautorin der Studie.

Eine Frage der Sicherheit

Die Autorinnen warnten davor, dass sich dies auf die Sicherheit auswirken könnte. „In unserem Experiment arbeiteten die Probanden und Probandinnen etwa 90 Minuten an der Aufgabe, und wir stellten bereits fest, dass weniger Qualitätsfehler entdeckt wurden, wenn sie im Team arbeiteten“, so Onnasch.

„In längeren Schichten, wenn Aufgaben Routine sind und das Arbeitsumfeld wenig Leistungskontrolle und Feedback bietet, ist der Motivationsverlust tendenziell viel größer. In der Fertigung im Allgemeinen, aber insbesondere in sicherheitsrelevanten Bereichen, in denen Doppelkontrollen üblich sind, kann sich dies negativ auf die Arbeitsergebnisse auswirken.“

Kein Arbeitsplatzabbau durch KI – OECD-Studie

Künstliche Intelligenz (KI) kann in einem sehr breiten Feld Aufgaben übernehmen, die davor von Menschen geleistet wurden. Zu einem Abbau von Jobs ist es deshalb aber noch nicht gekommen – allenfalls hat KI-Nutzung das Beschäftigungswachstum verlangsamt, ergab eine OECD-Studie mit österreichischer Beteiligung.

Der Untersuchung der OECD in Kooperation mit der KMU Forschung Austria liegen knapp 100 Fallstudien in acht Ländern zugrunde, davon 18 aus Österreich. Unterstützung gab es vom Sozialministerium. Hinweise auf Kündigungen wegen der KI „finden sich in den Fallstudien nur in begrenztem Umfang“, so die Studie. In den wenigen Fällen seien die Betroffenen in anderen Bereichen des Unternehmens untergekommen. Teilweise habe es aber keine Nachbesetzungen von Pensionierungen oder natürlichen Abgängen gegeben, wenn Aufgaben von einer KI übernommen wurden.

Im Gegenzug habe starke Nachfrage zu mehr Beschäftigung in Berufen mit KI-Bezug geführt. Auch auf dem Gebiet der KI selber seien neue Arbeitsplätze entstanden. „KI-Nutzung führt eher zur Umorganisation von Tätigkeiten als zu tatsächlichen Arbeitsplatzverlusten“, heißt es in der OECD-Studie. Teils werde die KI als Unterstützung genutzt, damit Menschen schneller, fehlerfreier oder sicherer arbeiten können, ohne dass sich ihr Tätigkeitsprofil grundlegend ändert.

Wegfall monotoner Aufgaben

Häufig habe die Arbeitsersparnis durch KI zu mehr Bedarf an menschlicher Arbeit im Umfeld der KI geführt. „Die anderen Aufgaben waren in der Regel Tätigkeiten, bei denen menschliche Arbeitskräfte nach wie vor über komparative Vorteile verfügen“, so die OECD. Tätigkeiten, die Empathie, soziale Interaktion und bestimmte Arten der Entscheidungsfindung erfordern, würden „wahrscheinlich immer besser von Menschen erledigt werden“, so die Einschätzung der Befragten in den Fallstudien.

Die Auswirkungen auf das Kompetenzniveau sind laut Studie differenziert zu sehen. Bei einem großen Teil sei im neuen Umfeld keine zusätzliche Kompetenz nötig, aber bei einem „wesentlichen Anteil der Fallstudien“ waren höhere und breiter gestreute Kompetenzen nötig. Nur im verarbeitenden Sektor gab es auch Beispiele, wo die Kompetenzanforderungen wegen der Automatisierung sanken.

„Die Fallstudien liefern überzeugende Belege dafür, dass KI die Beschäftigungsqualität erhöht“, so die Studie. Oft fielen monotone Inhalte weg, die Arbeit werde interessanter und auch das Arbeitspensum sinke. Es könne aber auch die Arbeitsintensität wegen höheren Leistungszielen steigen. Nun seien politische Weichenstellungen entscheidend. Würden Beschäftigte bei der Einführung von KI eingebunden, verringere das die Furcht vor einem Arbeitsplatzverlust und stärke ihre Bereitschaft, sich mit KI-Technologien auseinanderzusetzen.

Studie – Künstliche Intelligenz in der Arbeitswelt

Die Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ leistet einen wichtigen Beitrag zu der gesellschaftlich notwendigen Debatte zum Einsatz von KI in der Arbeitswelt. „Als Gewerkschaft wollen wir mit den Arbeitnehmerinnen und Arbeitnehmern den Einsatz Künstlicher Intelligenz so gestalten, dass es auch in Zukunft Gute Arbeit für alle gibt. Nur wenn die Technik den Menschen nicht steuert, sondern ihn in seiner Arbeit unterstützt, kann KI zu einem Erfolgsmodell für Beschäftigte und Unternehmen werden“, sagte ver.di-Bundesvorstandsmitglied Christoph Schmitz. „Dazu müssen wir die Effekte des KI-Einsatzes verstehen, und dafür leisten gerade die Feldstudien des gemeinsamen Forschungsprojektes einen wichtigen Beitrag.“

„KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“

Christoph Schmitz, ver.di-Bundesvorstandsmitglied

Der Einsatz Künstlicher Intelligenz löse derzeit bei vielen Arbeitnehmerinnen und Arbeitnehmern Sorgen und Ängste aus, so Schmitz weiter. „Selbststeuernde Prozesse führen zu einer neuen Arbeitsteilung zwischen Mensch und Maschine, ohne dass diese bisher ausreichend erforscht ist.“ Drängende Fragen der Kontrolle, der Ent- oder Belastung, der Qualifizierung und der Beschäftigungssicherung müssten geklärt werden. „Die Einführung von KI kann die Arbeitsqualität verbessern, wenn die Kriterien von Guter Arbeit schon vor der Implementierung berücksichtigt werden.“

Bereits im März dieses Jahres hatte ver.di „Ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ veröffentlicht. Schmitz: „Künstliche Intelligenz ist Werkzeug, Mittel zum Zweck. KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“ KI-Systeme seien so zu gestalten, dass die Handlungs- und Gestaltungsspielräume der Erwerbstätigen erweitert werden. „Tätigkeiten sind durch gezielte Qualifizierung aufzuwerten. Dies kann durch Tarifverträge flankiert und durch neue Stellenzuschnitte unterstützt werden.“

Die am 9. Dezember 2020 veröffentlichte Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ zeigt Erfahrungen mit dem Einsatz von KI in der Arbeitswelt an zwei Fallbeispielen: Bei Siemens in der Personalverwaltung wurde der Chatbot CARL erprobt, ein Assistenzsystem, das wie ein menschlicher Second Level Support im Hintergrund unterstützt. Bei der Telekom wurde die Robotic Desktop Application PIA erforscht, ein persönlicher interaktiver Assistent, der im Hintergrund vorhandene Daten mit neuen Daten verknüpft. Das Prinzip dahinter ist, dass KI große Datenmengen schneller analysieren und durchforsten kann.

Regulierung von Künstlicher Intelligenz

Der Chef des ChatGPT-Entwicklers OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe künstlicher Intelligenz (KI) – und hat sich für eine strikte Regulierung ausgesprochen.

Allein wegen der benötigten erheblichen Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman gestern in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen. Altmans OpenAI löste mit ChatGPT sowie der Software, die Bilder auf Basis von Textbeschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

Falschinformationen schwer erkennbar

ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist.

Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für künstliche Intelligenz solle eine Reihe von Sicherheitstests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Umwälzungen in der Arbeitswelt

Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, „viel bessere Arbeitsplätze“ zu schaffen.

Während der Anhörung in einem Senatsunterausschuss schloss Altman nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.

WHO warnt vor ungesteuerter KI-Anwendung

Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte gestern einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

KI-Technologie könnte aus Sicht der WHO auch missbraucht werden, um Desinformation als seriös wirkende Inhalte zu tarnen. Außerdem befürchtet die WHO, dass KI-Systeme unerlaubt auf sensible Gesundheitsdaten zugreifen.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen.