KI als Akteur - Die neue Ära der Zusammenarbeit
München [ENA] Der Titel klingt harmloser, als die Sache ist. Was es bedeutet, wenn das intelligente Werkzeug nicht nur "agentisch" arbeitet, sondern auch als ernstzunehmender Akteur im Arbeitsleben auftritt, untersuchte der MÜNCHNER KREIS in einer intensiven Fachkonferenz Ende November in München.
KI-Agenten können zunehmend ganze Arbeitsprozesse übernehmen, dabei miteinander interagieren und selbständig entscheiden, vorerst noch in einzelnen Sektoren und unter Aufsicht oder, wie man neudeutsch sagt: mit 'Human in the loop'. Aber der Weg zur Autonomie ist vorgezeichnet, und die menschliche Selbstsuggestion, die eigene Letztverantwortung juristisch und organisatorisch verankern zu können, ist ein routiniertes Rückzugsgefecht ohne bindende oder aufhaltende Wirkung. Tatsächlich gerät man damit sogar in eine üblere Lage als vermutet.
Da Generative KI in ihren Entscheidungen und Ergebnissen nicht leicht nachzuverfolgen ist und ihre Aggregation zu einem Agentensystem noch eine weitere Komplexitätsebene hinzufügt, soll der verantwortliche Mensch etwas verantworten, dessen interne Argumentation und Logik er gar nicht kennt. Man verlangt also Verantwortung ohne Einflußmöglichkeit, wie Luc Becker, LMU München, in seinem Vortrag über die Veränderung des Managements mahnte. Der Weg zum "Algorithmic Management" leistet der Verantwortungsdiffusion Vorschub, die ohnehin schon jetzt der Hauptzweck komplexer Organisationen ist, wie sarkastische Analytiker bemerken würden.
Wohlwollend betrachtet: der Manager wird zum Moderator, vermittelt zwischen den Vorschlägen der KI und seinen eigenen und bringt sie der Belegschaft nahe. Dazu gibt es auch schon eine empirische Studie, die Emily Lochner, Universität der Bundeswehr München, vorstellte: "KI in der Führung –Auswirkungen auf das mentale Wohlbefinden von Mitarbeitenden". Hiernach nimmt der positive Affekt unter den Mitarbeitern bei Lob um so mehr ab, je mehr es von der KI kommt.
Ein negativer Affekt, also Tadel, wird der KI hingegen weniger als einem Menschen übelgenommen. Die Psychologie dahinter dürfte eher unspektakulär sein. Für Lob sollte es schon ein echter Mensch sein, damit das Lob auch Wert hat. Beim Tadel, egal ob berechtigt oder nicht, denkt sich der Betroffene vermutlich: was weiß die Maschine schon von mir - oder: wenigstens hat mich der Chef nicht zusammengestaucht. Lochners Schlußfolgerung daraus ist allerdings, daß man angesichts eines solchen Reaktionsmusters künftig darauf achten müsse, ein emotional sensibles KI-Design zu entwerfen.
Implizit und intransparent gibt es das heute schon, als affirmativ-positives Naturell der meisten generativen Antwortmaschinen, ein emotionaler Filter, der nicht wenigen Nutzern auf die Nerven geht und nicht leicht zurückzuweisen ist. Ob und wer über ein solches KI-Design Gestaltungsfreiheit erhält, ist damit noch gar nicht gesagt, und wie es dann für wen aussehen soll, noch viel weniger. Hier sieht man eine neue, eines Dr. Frankenstein würdige Aufgabe unbekannten Ausmaßes aufragen: sein Geschöpf schafft der Mensch nach dem eigenen Bild, und je mehr es in die menschlichen Fähigkeiten hineinwächst, desto mehr Persönlichkeit muß man ihm mitgeben.
KI als Rollenmodell
Teilnehmer an Computerspielen wissen, daß sie ggf. Rollen annehmen oder zuweisen müssen. Das sind allerdings recht schematische, stark typisierte Rollen für eine ganz bestimmte Umgebung und Aufgabe. Wenn man nicht das ganze Arbeitsleben der Gamefication unterwerfen will, wird das nicht reichen. Die KI bloß als "Wizard" zu positionieren, dürfte spätestens dann Unmut hervorrufen, wenn es um Einstellungs-, Gehalts-, Versetzungsentscheidungen in der Firma geht.
Maximilian Jesch, IBM, hatte hierzu in seinem "Technischen Vorwort" zur Agentischen KI erst einmal nur die Organisationstopologie gezeigt. Die sozialen Implikationen oder Friktionen werden aber den Sprengstoff beim Einzug der KI in das Arbeitsleben und die Bildungswelt bilden. Dr. Markus Wuebben, KI-Berater, der "KI-Agenten und die Zukunft unserer Gesellschaft" untersuchte, machte die Auswirkungen anhand des Organigramms einer künftigen Firma deutlich: viele bisherige Stellen werden von der KI übernommen. Daß die Kommunikation in einer solchen Organisation anders als bisher verlaufen wird, ist offensichtlich.
Wenn reale Menschen in großem Umfang aus Kommunikationsbeziehungen entfernt werden, erleiden sie das als Verlust und Degradierung. Kommunikationsverweigerung ist Machtausübung. Das Machtgefälle ist heute schon zu sehen, wenn die Beweislast für den Kommunikationsstatus dem Menschen aufgebürdet wird. Er muß im Captcha bestätigen, daß er ein Mensch und kein Roboter ist, d.h. die digitale, maschinelle Kommunikation wird als Maßstab und Normalität verstanden, der gegenüber sich der Mensch erklären und rechtfertigen muß.
Es ist abzusehen, daß die unmittelbare Kommunikation zwischen Menschen in Echtzeit künftig ein Luxusgut sein wird, wie heute ein handgeschriebener Brief. Die KI dringt ja auch weiter ins Privatleben vor, stellt "Replicas" und quasitherapeutische ChatBots bereit, wird gewiß auch in der Altenpflege einst das psychologisch erforderliche Minimum an Gesprächsbedarf erfüllen und insgesamt ein KI-kuratiertes Leben zur Normalbiographie machen. Paradoxerweise stellt sich hier um so dringlicher die Frage nach dem Menschenbild der KI. Daß sich der Mensch in der KI den Spiegel vorhält und ein neues Stadium der Selbsterkenntnis erreicht, ist zunächst nur eine allgemeine Feststellung.
Es ist jedoch immer jemand, der diesen Spiegel vorhält, d.h. ein Unternehmen, eine innovative Kultur, die hier tätig werden und ihre Avance über den Rest der Menschheit verteilen. Dies führt zur anderen Seite der oben angesprochenen Kommunikationstopologie: Aufgezwungene Kommunikation ist ebenso Machtausübung. Immerhin wird die in ChatBots eingebaute Zensur, oder sagen wir: emotionale und weltanschauliche Färbung, bereits diskutiert, und zum Glück gibt es auch einen gewissen Wettbewerb unter den großen Sprachmodellen.
Diesen Wettbewerb können sich aber nur die Großen leisten, und wer hier groß ist und wer klein bleibt, ist kein Geheimnis. Wuebben bezifferte das KI-Wagniskapital bei den einschlägigen kalifornischen Firmen auf 353 Mrd. $, dasjenige in Deutschland auf 1,9. Wenn man will, kann man das gewaltige Investitionsvolumen in den USA als jenen Betrag identifizieren, den die Investoren später durch Freisetzung menschlicher Arbeitskräfte zu gewinnen hoffen. Es wäre sozusagen der bezifferte und vorweggenommene Rationalisierungsgewinn. Auch dies ist eine Facette des Menschenbildes der KI. Man könnte auch sagen: die KI ist der idealtypisch realisierte "Homo oeconomicus".
Wer lernt von wem?
In einer prekären Ambivalenz wird man die jüngere, gerade erst ins Berufsleben eintretende Generation verstrickt sehen. Einerseits glaubt sie wohl, ein Schlaraffenland mit reduzierten kognitiven, diskursiven, mnemotechnischen Anforderungen vor sich zu haben. Andererseits nimmt ihr die KI viele Einstiegspositionen und damit auch die Gelegenheit zum Dazulernen weg. Ein Abiturient, zumal ein bayerischer, durfte sich früher als befähigt und - nach dem Abschluß der "Höheren Schule" - zu Höherem berufen fühlen. Heute steht er lediglich auf dem Niveau der KI, ist also bereits ersetzt und überflüssig, bevor er irgend etwas gemacht hat.
M. Wuebben hatte für dieses Problem eine drastische Lösung: Wenn die Karriereleiter keine unteren Sprossen mehr hat, muß sich der Einsteiger, der Aufsteiger werden will, eben einen Aufzug bauen. Wie das gelingen soll, dürfen sich die Jungen fragen, im Hintergrund die Parole "Du hast keine Chance, aber nutze sie". Auf jeden Fall erzeugt diese Konstellation einen enormen sozialen Selektionsdruck, dem man noch nicht ins Auge zu blicken wagt.




















































