KI in der Arbeitswelt

Vor kurzem wurde bekannt, dass Amazon plant, rund 15 Prozent seiner Belegschaft zu kündigen. Amazon suche nach Möglichkeiten, die Personalkosten zu senken, während das Unternehmen gleichzeitig 100 Milliarden US-Dollar in KI investiert, so das US-Magazin „Fortune“.

Der KI-Experte und Geschäftsführer des Technologieunternehmens Apollo.ai, Mic Hirschbrich, schätzt, dass in Österreich, Deutschland und der Schweiz „maximal vier bis sechs Prozent der Unternehmen KI wirklich signifikant einsetzen“. Wenn also Unternehmen, die wirtschaftlich zu kämpfen haben, der KI die Verantwortung zuschreiben und Kündigungen mit Effizienzsteigerungen begründen würden, sei dem folglich nicht immer zu trauen, so Hirschbrich gegenüber ORF.at.

Kritik an ziellosem KI-Einsatz

Unternehmen würden sich, was KI betrifft, derzeit noch in einer Testphase befinden, hätten vielleicht eine Lizenz erworben und würden ein bisschen damit „spielen“. Doch das sei noch kein produktiver Einsatz von KI.

„Viele glauben ja, wenn sie KI verwenden, sei das eine breit einsetzbare Intelligenz, die verschiedenste Dinge im Arbeitskontext zuverlässig erledigen könne“, kritisierte Hirschbrich. Auch bei der Onlinenewsplattform 404 Media ist mit Verweis auf aktuelle Studien zu lesen, dass die Einführung von KI-Tools am Arbeitsplatz nicht zu einem „magischen Produktivitätsschub geführt hat“.

„KI-System“

Die EU definiert KI als „ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie“ betrieben werden könne. Aus den Eingaben, die es erhält, könne es Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren.“

Vielmehr habe sich die Zeit erhöht, die Menschen nun damit verbringen würden, minderwertige KI-generierte „Arbeit“ zu korrigieren. Zudem würden Investitionen in Milliardenhöhe bisher kaum nennenswerte Gewinne gegenüberstehen.

„Revolution“ bei spezifischen Anwendungen

Hirschbrich sei daher ein „großer Verfechter“ sinnvoller KI-Produkte für spezifische Anwendungen. Nur dann könne KI zuverlässig Nutzen stiften. Hierbei gebe es bereits eine Reihe von Anwendungen, wo KI tatsächlich zur Optimierung beiträgt. Übersetzungen etwa würden mittlerweile eine hohe Qualität aufweisen: „Da können wir eine richtige Revolution erleben. Maschinen, die erstmals Sprache beherrschen.“

Einen „Erdrutsch“ sieht er unterdessen bei medizinischer Diagnostik, etwa bei der Früherkennung von Karzinomen. Und dasselbe gelte für den Managementbereich. Die Art, wie Führung und Aufsicht technologisch unterstützt würden, verändere sich gerade grundlegend.

KI als „Assistent“

Viele der angebotenen neuen Systeme seien assistierende KI, wo „Mensch und Technologie vertrauenswürdig zusammenarbeiten und die eine Seite die andere stärkt“. Konkret bedeute das: „Ich werde kaum einen Anwalt oder Richter ersetzen können – und auch nicht wollen.“ Doch das, was ein Konzipient mache, nämlich Normen recherchieren, Entwürfe verfassen, Verträge aufsetzen oder Gesetzestexte rezitieren, könne KI mittlerweile „beeindruckend gut“. Die Fortschritte sind hier beinah monatlich wahrnehmbar.

Julia Bock-Schappelwein, Arbeitsmarktökonomin beim Wirtschaftsforschungsinstitut (WIFO), sieht beim Einsatz von KI den großen Unterschied zu früheren Innovationen darin, welche Art von Jobs betroffen sind: „Während bei früheren Automatisierungs- und Digitalisierungswellen insbesondere manuelle Routinetätigkeiten unter Druck gerieten, werden durch den Einsatz von KI besonders kognitive Tätigkeiten adressiert“, so Bock-Schappelwein gegenüber ORF.at. Bisher hätten kreative Aufgaben nicht als automatisierbar gegolten.

Jede dritte Arbeitsstunde mit Automatisierungspotenzial

Auch Sabine Köszegi, Professorin für Arbeitswissenschaft bei der Technischen Universität (TU) Wien und Mitglied des KI-Fachbeirats der Regierung, sieht ein hohes Potenzial zur Automatisierung – quer durch alle Branchen. „Ungefähr jede dritte Arbeitsstunde könnte mit Hilfe von KI automatisiert werden“, so Köszegi im Gespräch mit ORF.at.

Schließlich hätte jeder Job unterschiedliche Aufgaben, die immer auch einen Routineanteil aufweisen würden. „Je höher der ist, desto eher ist davon auszugehen, dass diese Anteile automatisiert werden.“ Als Beispiel nennt sie administrative Jobs.

Dennoch: „In der Regel reden wir nicht davon, dass ganze Jobs wegfallen und ganz neue entstehen. Sondern davon, dass sich Jobprofile, und zwar jedes Jobprofil, ändern. Indem Aufgaben automatisiert werden und andere neue dazukommen.“ Großen Chancen würden hierbei großen Herausforderungen folgen.

Experten: Rasante Entwicklung

In den USA sehe man bereits, dass der relative Anteil an Berufseinsteigerinnen in KI-exponierten Branchen in den vergangenen vier Jahren um 13 Prozent gesunken sei. In Europa sei man bei der Entwicklung ein bis zwei Jahre hinten. Bock-Schappelwein verwies hierbei auf einen aktuellen WIFO-Bericht, wonach sich der Anteil jener Unternehmen in Österreich, die KI einsetzen, 2024 auf rund 20 Prozent verdoppelt habe.

Für Köszegi sind das Aussichten, die jetzt vor allem die Regierung auf den Plan rufen müssten, um entsprechende Maßnahmen zu ergreifen, etwa in Richtung Transferleistungen und Umverteilung. Sie glaube, dass die Auswirkungen von KI auf den Arbeitsmarkt tatsächlich noch unterschätzt würden.

Hirschbrich verwies hierbei auf die Schnelligkeit der Entwicklungen: „Wir haben alle drei bis sechs Monate einen Technologieschub und müssen das immer neu bewerten.“ Für Bock-Schappelwein sei klar, dass in Zukunft ein „Bündel aus fachspezifischen technischen und fachübergreifenden Kompetenzen, sozialen und digitalen Kompetenzen“ gefragt seien. Und Köszegi zufolge müsse hinterfragt werden, ob Effizienzsteigerung den Einsatz von KI immer rechtfertige. Schließlich seien auch andere Kriterien wie Qualität und Nachhaltigkeit wichtig.

„Arbeit neu denken“

Diese disruptiven Entwicklungen könnten auch als Chance genutzt werden, sehr grundlegend die Frage zu stellen, „wie wir in Zukunft arbeiten wollen“, so Köszegi. „Ist es wirklich unsere Fantasie, dass wir Maschinen für uns arbeiten lassen wollen? Oder ist Arbeit auch ein wesentlicher Teil unserer Identität? Der unser Leben strukturiert und mit dem wir einen wertvollen Beitrag für unsere Gesellschaft leisten können.“

Und weiter: „Sollten wir Arbeit nicht neu denken vor dem Hintergrund der Automatisierung?“ Schließlich sei Technologie nicht zuletzt ein kulturelles Artefakt: „Wir gestalten sie und wir setzen sie ein. Und es liegt in unserer Hand zu entscheiden, wie wir das tun.“

Europa bei KI hinter USA und China

Trotz zahlreicher Maßnahmen hinkt die EU den USA und China im Wettrennen um künstliche Intelligenz (KI) hinterher.

Laut einem heute veröffentlichten Bericht des Europäischen Rechnungshofs (ERH) hat die EU-Kommission in den letzten Jahren zwar die Ausgaben für KI-Forschung erhöht. Ihr sei es aber nicht gelungen, entsprechend private Investitionen zu generieren. Dabei hätten KI-Investitionen eine große Bedeutung für das Wirtschaftswachstum der EU, so die Prüfer.

„Im Wettrennen um KI besteht die Gefahr, dass der Gewinner am Ende alles bekommt“, warnte der zuständige ERH-Prüfer Mihails Kozlovs in einer Aussendung. „Um die ehrgeizigen EU-Ziele zu erreichen, müssen die Europäische Kommission und die EU-Länder ihre Kräfte wirksamer bündeln, schneller handeln und das Potenzial der EU besser nutzen.“

Das Fehlen einer effektiven Koordinierung mit den Mitgliedsstaaten zählt zu den Hauptkritikpunkten in dem Bericht. Der Kommission fehlten „die erforderlichen Steuerungsinstrumente und Informationen“. Zudem seien viele Maßnahmen und Regulierungen zu langsam umgesetzt worden.

Enormer Wettbewerb um KI-Fachleute

Der Wettlauf der großen Tech-Firmen um die Weiterentwicklung künstlicher Intelligenz (KI), begleitet von einem großen Anwachsen von KI-Start-ups, verschlingt Milliarden. Selbst finanziell bessergestellte Eliteunis wie Stanford hinken hier hinterher und damit auch die Chancen für eine unabhängige KI-Forschung. Zugleich ringt die Politik um die Regulierung von KI. Am Mittwoch stimmt das EU-Parlament über den AI Act als KI-Regelwerk in der EU ab.

Zugleich locken die Tech-Firmen mit enormen und zuletzt auch stark gestiegenen Gehältern KI-Fachleute von den Unis. Ein durchschnittliches Gehalt für einen KI-Experten bei Meta lag laut der Gehaltsüberblicksseite Levels.fyi im vergangenen Jahr bei jährlich über 335.000 Dollar (rund 306.000 Euro), 2020 waren es noch 256.000 Dollar. Nach oben sind den Gehältern bei mehr Erfahrung und herausragenden Leistungen keine Grenzen gesetzt, diese können in den Millionenbereich gehen. Denn der Kampf um die besten Talente für die KI-Entwicklung wird durch den Zuwachs an Start-ups zusätzlich angetrieben.

Enorme Ressourcenlücke

Die Lücke zwischen verfügbaren Ressourcen von Unternehmen wie Meta, Google und Microsoft auf der einen Seite und Universitäten auf der anderen Seite ist enorm, wie man etwa am Beispiel der notwendigen Computerchips sieht. Mit einer Graphics Processing Unit (GPU) sollen mathematische Berechnungen für KI-Modelle besonders schnell durchgeführt werden.

Meta will 350.000 solcher GPUs beschaffen. Die Abteilung der Stanford University, die sich mit KI beschäftigt, verfügt über insgesamt 68 GPUs. Das Ungleichgewicht macht sich bereits an den Ergebnissen bemerkbar.

Laut einem Bericht der Stanford University wurden im Jahr 2022 32 wichtige Modelle für maschinelles Lernen in der Tech-Industrie geschaffen, drei wurden an Universitäten entwickelt. Noch vor zehn Jahren gelangen hingegen der universitären Forschung die meisten Durchbrüche im Bereich der KI, so der Bericht. Auch der Anteil der Uniabsolventen und -absolventinnen, die in die Privatwirtschaft wechseln, anstatt an der Uni zu bleiben, habe sich im Vergleich zu vor 20 Jahren mehr als verdreifacht, berichtete die „Washington Post“.

Warnung vor rein gewinnorientierter Forschung

Auch wenn schon einige Schritte Richtung stärkerer öffentlicher Finanzierung gesetzt wurden, gibt es noch enormen Nachholbedarf. „Der öffentliche Sektor hinkt bei den Ressourcen und Talenten im Vergleich zur Industrie deutlich hinterher“, sagte die Stanford-Professorin und KI-Pionierin Fei-Fei Li gegenüber der „Washington Post“.

Sie ist ein wichtiges Sprachrohr einer wachsenden Gruppe an Forschern und Politikern, die sich für eine stärkere staatliche Unterstützung und Förderung der öffentlichen KI-Forschung einsetzen. Der Fokus auf die Privatwirtschaft habe Auswirkungen auf die Inhalte der Forschung, warnt sie. Denn die Tech-Firmen seien gewinnorientiert und richten die Entwicklung der KI-Technologie auf dieses Ziel aus.

Weniger Freiheit für Wissenschaftler

Zwar rühmte sich so manches Tech-Unternehmen, darunter Google, die KI-Forschungsergebnisse schnell der Öffentlichkeit zur Verfügung zu stellen. Und vielfach waren die Forschungsabteilungen der Unternehmen von den Abteilungen für die Produktentwicklung abgekoppelt und konnten über die Forschung ähnlich entscheiden wie an Unis, heißt es von Insidern.

Diese Strategie und die Freiheit für die Forschenden scheint sich Berichten zufolge allmählich aber zu ändern. Google begann im vergangenen Jahr etwa, seine Forschungsergebnisse erst zu veröffentlichen, als daraus bereits konkrete Produkte entstanden waren. Auch Meta spannt nun die Forschungsagenden enger mit der Produktabteilung zusammen. „Ein gewisses Maß an Übereinstimmung sei hilfreich für das Unternehmen“, argumentierte Meta.

Regulierung von KI

Stanford-Professorin Li hofft, dass das parteiübergreifende Gesetzesvorhaben in den USA, der Create AI Act, das Ungleichgewicht zwischen Privatkonzernen und öffentlichen Einrichtungen eindämmen kann. Es brauche Regulierung, meinte Li Ende vergangenen Jahres in einem Interview mit dem „Spiegel“. Die Diskussionen dazu laufen, erste Schritte wurden gesetzt. Eine von US-Präsident Joe Biden erlassene KI-Verordnung von Ende vergangenen Jahres etwa verpflichtet KI-Anbieter zu Sicherheitstests bei Risiken für die nationale Sicherheit sowie die öffentliche Gesundheit.

Herausforderung für Washington bei der Regulierung von KI sei, die Führungsposition der USA bei der KI-Entwicklung zu sichern und zugleich die Bürger und Bürgerinnen vor potenziellen Gefahren der Technologie zu schützen, analysiert das „Time“-Magazin.

Am Mittwoch soll nun das EU-Parlament über den AI Act abstimmen. Damit will sich die EU ein KI-Regelwerk geben, um bei riskanten Anwendungen neuer Technologien gewappnet zu sein und vor allem soziale Schäden etwa durch Diskriminierung abwenden. Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. Entwickler sollen zudem klar erkennbar machen, wenn Texte, Bilder und Videos auf den Einsatz von KI zurückzuführen sind.

Mensch-Roboter-Interaktion

„Teamwork ist zweischneidig. Es kann Menschen zu guten Leistungen motivieren, aber auch zu einem Verlust der Motivation führen, weil der individuelle Beitrag nicht so sichtbar ist“, sagt Helene Cymek von der Technischen Universität Berlin, Erstautorin einer soeben im Fachmagazin „Frontiers in Robotics and AI“ veröffentlichten Studie. „Uns hat interessiert, ob wir solche Motivationseffekte auch finden können, wenn der Teampartner ein Roboter ist.“

Fehlerkontrolle von Leiterplatten

Um die Frage zu beantworten, baten sie 42 Versuchsteilnehmer und -teilnehmerinnen ins Labor. Diese sollten dort Leiterplatten, also elektronische Bauteile, auf Fehler untersuchen. Die Platten waren auf einem Monitor nur unscharf zu erkennen; die geschärften Bilder konnten nur betrachtet werden, wenn man mit der Maus darüberfuhr. Dies ermöglichte es, die Fehlerkontrolle der Teilnehmer und Teilnehmerinnen genau zu verfolgen.

Der Hälfte von ihnen sagten die Psychologinnen um Cymek, dass sie auf Leiterplatten arbeiteten, die zuvor von einem Roboter („Panda“) kontrolliert worden waren. Obwohl diese Teilnehmer nicht direkt mit dem Roboter arbeiteten, hatten sie ihn gesehen und konnten ihn hören, während sie arbeiteten. Nachdem alle Teilnehmerinnen und Teilnehmer die Tafeln auf Fehler untersucht und bewertet hatten, wurden sie gebeten, ihre eigene Leistung zu bewerten – etwa wie verantwortlich sie sich für die Aufgabe gefühlt hatten.

Gleich „schauen“ heißt nicht gleich „sehen“

Auf den ersten Blick sah es so aus, als hätte die Anwesenheit von „Panda“ keinen Unterschied gemacht – es gab keinen statistisch signifikanten Unterschied zwischen den Gruppen in Bezug auf die Zeit, die für die Kontrolle der Leiterplatten aufgewendet wurde, und auf den durchsuchten Bereich. Beide Gruppen bewerteten ihr Verantwortungsgefühl für die Aufgabe, den Aufwand und die Leistung ähnlich.

Als die Psychologinnen jedoch die tatsächlichen Fehlerraten genauer untersuchten, zeigten sich deutliche Unterschiede. „Panda“ hatte nämlich absichtlich fünf Fehler eingebaut. Die Gruppe, die mit ihm zusammenarbeitete, entdeckte davon durchschnittlich 3,2. Bei der Gruppe ohne Roboterhilfe waren es hingegen 4,2 – also deutlich mehr. Die Probandinnen und Probanden der ersten Gruppe dachten zwar, dass sie der Aufgabe gleich viel Aufmerksamkeit geschenkt hatten, unbewusst gingen sie aber offenbar davon aus, dass „Panda“ keine Fehler übersehen hatte – sie haben zwar gleich „geschaut“, aber nicht gleich „gesehen“.

„Es ist leicht zu verfolgen, wohin eine Person schaut, aber viel schwieriger zu sagen, ob diese visuellen Informationen mental ausreichend verarbeitet werden“, sagt Linda Onnasch, Psychologin an der Humboldt Universität Berlin und Seniorautorin der Studie.

Eine Frage der Sicherheit

Die Autorinnen warnten davor, dass sich dies auf die Sicherheit auswirken könnte. „In unserem Experiment arbeiteten die Probanden und Probandinnen etwa 90 Minuten an der Aufgabe, und wir stellten bereits fest, dass weniger Qualitätsfehler entdeckt wurden, wenn sie im Team arbeiteten“, so Onnasch.

„In längeren Schichten, wenn Aufgaben Routine sind und das Arbeitsumfeld wenig Leistungskontrolle und Feedback bietet, ist der Motivationsverlust tendenziell viel größer. In der Fertigung im Allgemeinen, aber insbesondere in sicherheitsrelevanten Bereichen, in denen Doppelkontrollen üblich sind, kann sich dies negativ auf die Arbeitsergebnisse auswirken.“

Kein Arbeitsplatzabbau durch KI – OECD-Studie

Künstliche Intelligenz (KI) kann in einem sehr breiten Feld Aufgaben übernehmen, die davor von Menschen geleistet wurden. Zu einem Abbau von Jobs ist es deshalb aber noch nicht gekommen – allenfalls hat KI-Nutzung das Beschäftigungswachstum verlangsamt, ergab eine OECD-Studie mit österreichischer Beteiligung.

Der Untersuchung der OECD in Kooperation mit der KMU Forschung Austria liegen knapp 100 Fallstudien in acht Ländern zugrunde, davon 18 aus Österreich. Unterstützung gab es vom Sozialministerium. Hinweise auf Kündigungen wegen der KI „finden sich in den Fallstudien nur in begrenztem Umfang“, so die Studie. In den wenigen Fällen seien die Betroffenen in anderen Bereichen des Unternehmens untergekommen. Teilweise habe es aber keine Nachbesetzungen von Pensionierungen oder natürlichen Abgängen gegeben, wenn Aufgaben von einer KI übernommen wurden.

Im Gegenzug habe starke Nachfrage zu mehr Beschäftigung in Berufen mit KI-Bezug geführt. Auch auf dem Gebiet der KI selber seien neue Arbeitsplätze entstanden. „KI-Nutzung führt eher zur Umorganisation von Tätigkeiten als zu tatsächlichen Arbeitsplatzverlusten“, heißt es in der OECD-Studie. Teils werde die KI als Unterstützung genutzt, damit Menschen schneller, fehlerfreier oder sicherer arbeiten können, ohne dass sich ihr Tätigkeitsprofil grundlegend ändert.

Wegfall monotoner Aufgaben

Häufig habe die Arbeitsersparnis durch KI zu mehr Bedarf an menschlicher Arbeit im Umfeld der KI geführt. „Die anderen Aufgaben waren in der Regel Tätigkeiten, bei denen menschliche Arbeitskräfte nach wie vor über komparative Vorteile verfügen“, so die OECD. Tätigkeiten, die Empathie, soziale Interaktion und bestimmte Arten der Entscheidungsfindung erfordern, würden „wahrscheinlich immer besser von Menschen erledigt werden“, so die Einschätzung der Befragten in den Fallstudien.

Die Auswirkungen auf das Kompetenzniveau sind laut Studie differenziert zu sehen. Bei einem großen Teil sei im neuen Umfeld keine zusätzliche Kompetenz nötig, aber bei einem „wesentlichen Anteil der Fallstudien“ waren höhere und breiter gestreute Kompetenzen nötig. Nur im verarbeitenden Sektor gab es auch Beispiele, wo die Kompetenzanforderungen wegen der Automatisierung sanken.

„Die Fallstudien liefern überzeugende Belege dafür, dass KI die Beschäftigungsqualität erhöht“, so die Studie. Oft fielen monotone Inhalte weg, die Arbeit werde interessanter und auch das Arbeitspensum sinke. Es könne aber auch die Arbeitsintensität wegen höheren Leistungszielen steigen. Nun seien politische Weichenstellungen entscheidend. Würden Beschäftigte bei der Einführung von KI eingebunden, verringere das die Furcht vor einem Arbeitsplatzverlust und stärke ihre Bereitschaft, sich mit KI-Technologien auseinanderzusetzen.

Studie – Künstliche Intelligenz in der Arbeitswelt

Die Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ leistet einen wichtigen Beitrag zu der gesellschaftlich notwendigen Debatte zum Einsatz von KI in der Arbeitswelt. „Als Gewerkschaft wollen wir mit den Arbeitnehmerinnen und Arbeitnehmern den Einsatz Künstlicher Intelligenz so gestalten, dass es auch in Zukunft Gute Arbeit für alle gibt. Nur wenn die Technik den Menschen nicht steuert, sondern ihn in seiner Arbeit unterstützt, kann KI zu einem Erfolgsmodell für Beschäftigte und Unternehmen werden“, sagte ver.di-Bundesvorstandsmitglied Christoph Schmitz. „Dazu müssen wir die Effekte des KI-Einsatzes verstehen, und dafür leisten gerade die Feldstudien des gemeinsamen Forschungsprojektes einen wichtigen Beitrag.“

„KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“

Christoph Schmitz, ver.di-Bundesvorstandsmitglied

Der Einsatz Künstlicher Intelligenz löse derzeit bei vielen Arbeitnehmerinnen und Arbeitnehmern Sorgen und Ängste aus, so Schmitz weiter. „Selbststeuernde Prozesse führen zu einer neuen Arbeitsteilung zwischen Mensch und Maschine, ohne dass diese bisher ausreichend erforscht ist.“ Drängende Fragen der Kontrolle, der Ent- oder Belastung, der Qualifizierung und der Beschäftigungssicherung müssten geklärt werden. „Die Einführung von KI kann die Arbeitsqualität verbessern, wenn die Kriterien von Guter Arbeit schon vor der Implementierung berücksichtigt werden.“

Bereits im März dieses Jahres hatte ver.di „Ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz“ veröffentlicht. Schmitz: „Künstliche Intelligenz ist Werkzeug, Mittel zum Zweck. KI-Anwendungen müssen der Verbesserung von Arbeits- und Lebensqualität dienen.“ KI-Systeme seien so zu gestalten, dass die Handlungs- und Gestaltungsspielräume der Erwerbstätigen erweitert werden. „Tätigkeiten sind durch gezielte Qualifizierung aufzuwerten. Dies kann durch Tarifverträge flankiert und durch neue Stellenzuschnitte unterstützt werden.“

Die am 9. Dezember 2020 veröffentlichte Studie „Künstliche Intelligenz – ein sozialpartnerschaftliches Forschungsprojekt untersucht die neue Arbeitswelt“ zeigt Erfahrungen mit dem Einsatz von KI in der Arbeitswelt an zwei Fallbeispielen: Bei Siemens in der Personalverwaltung wurde der Chatbot CARL erprobt, ein Assistenzsystem, das wie ein menschlicher Second Level Support im Hintergrund unterstützt. Bei der Telekom wurde die Robotic Desktop Application PIA erforscht, ein persönlicher interaktiver Assistent, der im Hintergrund vorhandene Daten mit neuen Daten verknüpft. Das Prinzip dahinter ist, dass KI große Datenmengen schneller analysieren und durchforsten kann.

Regulierung von Künstlicher Intelligenz

Der Chef des ChatGPT-Entwicklers OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe künstlicher Intelligenz (KI) – und hat sich für eine strikte Regulierung ausgesprochen.

Allein wegen der benötigten erheblichen Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman gestern in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen. Altmans OpenAI löste mit ChatGPT sowie der Software, die Bilder auf Basis von Textbeschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

Falschinformationen schwer erkennbar

ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist.

Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für künstliche Intelligenz solle eine Reihe von Sicherheitstests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Umwälzungen in der Arbeitswelt

Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, „viel bessere Arbeitsplätze“ zu schaffen.

Während der Anhörung in einem Senatsunterausschuss schloss Altman nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.

WHO warnt vor ungesteuerter KI-Anwendung

Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte gestern einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

KI-Technologie könnte aus Sicht der WHO auch missbraucht werden, um Desinformation als seriös wirkende Inhalte zu tarnen. Außerdem befürchtet die WHO, dass KI-Systeme unerlaubt auf sensible Gesundheitsdaten zugreifen.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen.