Münchner Medientage 2025 - Perspektiven mit KI
München [ENA] Die Künstliche Intelligenz hat nun auch die Münchner Medientage, die einstmals analog begonnen haben, eingeholt und ihnen ihren Stempel aufgedrückt. Ihr disruptiver Impuls erfaßt alle Bereiche des Medienschaffens: Geschäftsmodelle, Kommunikationsstrukturen, Wahrheitsüberzeugungen, Einflußsphären.
Die graue Eminenz hinter der Medienentwicklung, die KI, wurde auf den Medientagen teils frontal, teils im Nahkampf angegangen. In Acht und Bann getan, also ganz nach dem Geschmack der Europäer verurteilt, wurde sie im furiosen Referat von Karen Hao nach ihrem Buch "Empire of AI", mit dem dramatisierenden Untertitel "Träume und Alpträume in Sam Altmans Open AI". Hiernach konnte man die KI-Industrie nur als Zusammenrottung sinistrer Mächte verstehen, die eine neokoloniale Ordnung anstreben. Ähnlich argumentierte 2023 Dr. Martin Andree: "Big Tech muss weg".
Die Diagnose eines digitalen Feudalismus oder Imperialismus ist freilich nicht neu, und der Geschäftserfolg von Open AI basiert, wie bei allen amerikanischen Digitalfirmen und überhaupt den amerikanischen Firmen, auf der Devise "bigger is better" oder "Think big!". Das brachte den Sieg im 2. Weltkrieg, die Mondlandung, das Genomprojekt und die bekannten digitalen Quasimonopole. Die kleinwüchsigen (oder kleinkarierten) Vasallen schauen mißlaunig zu und bekommen einen altrömischen Grundsatz entgegengehalten: Vanae sine viribus irae.
Den Nahkampf mit der KI demonstrierte zum einen höchst virtuos Michael Praetorius, der, um den Oktoberfestjargon aufzugreifen, die Hinrichtung der Wahrheit auf offener Bühne demonstrierte, also in Echtzeit die Fälschung/Fälschbarkeit einer Berichterstattung zeigte. Zum andern war es kenntnis- und erfolgreich Gregor Schmalzried mit zwei anspruchsvollen Soloauftritten, der Masterclass "AI für Nicht-Techies" und dem Referat über "Vibe Working". Die Masterclass hätte auch "KI für Fortgeschrittene" heißen können, denn es ging um die Speerspitze der KI-Entwicklung, die agentische KI. Virtuoses Hantieren mit verschiedenen LLMs und geläufiges Prompten wird da bereits vorausgesetzt.
Der staunende Zuschauer konnte sich allenfalls mit der beiläufigen Versicherung trösten, daß die bekannten Probleme und Flaschenhälse der LLMs, Halluzinationen, Intransparenz, begrenztes Gedächtnis, eingeschränkter Dateiaustausch, die seine Arbeit mit der KI so frustrierend machen, auch an der KI-Front maßgeblich sind. Schmalzried plädierte jedenfalls dafür, KI-Agenten derzeit nur einzusetzen, wenn sie unvermeidbar, d.h. ihr Nutzen gegenüber Aufwand und Risiko unwiderlegbar groß ist. Darüber hinaus dämpfte er in seinem zweiten Referat auch die Erwartung, daß die KI mit wachsender Souveränität auch die Barrieren zu sich abbauen werde.
Daß ein Großteil der Anwender mit der Verfahrensintelligenz der LLMs nicht schritthalten kann, hat bemerkenswerterweise zu dem kuriosen Anglizismus "Vibe Coding" geführt, den Schmalzried zu Vibe Working verallgemeinerte. Das könnte man sarkastisch mit "gefühltes Programmieren" - noch etwas drastischer: bewußtloses Programmieren - und "gefühltes Arbeiten" übersetzen. Gemeint ist jene Aufgabenerfüllung, die dem Mensch ein Ergebnis beschert, das nicht auf eigener Arbeit und Kenntnis beruht. Er hat dann etwas programmiert, obwohl er gar nicht programmieren kann. Es ist Wirkung ohne (eigenes) Wirken.
Der Mensch und Nutzer wird also nicht klüger, wenn er die Klugheitsmaschine benutzt, sondern eher dümmer, weil ihm der Ansporn zur Klugheit fehlt. Die Einführung der KI wird demnach die intellektuellen Unterschiede in der Gesellschaft verstärken, wie auch schon bei der bisherigen Digitalisierung zu beobachten ist: diejenigen, die Informationsmanagement gelernt haben und formale Bildung besitzen, profitieren, die anderen bleiben ahnungslos und werden Manipulationsopfer.
Daß laut Bitkom-Umfrage 43% der Erwerbstätigen keine KI-Unterstützung wollen, ist auch Folge einer anscheinend unentrinnbaren Aporie. Die einen wissen, daß ihre Probleme oder Aufgaben von der KI nicht bewältigt werden können, und ignorieren sie deshalb, die anderen wissen, daß ihre Aufgaben oder Probleme von der KI bewältigt und sie selbst deshalb ersetzt werden können.
Während die Aufmerksamkeit derzeit fast völlig von den großen Sprachmodellen und ihren Fortschritten absorbiert wird, man allenfalls noch die herannahende agentische KI als Überwachungs- und Steuerungsproblem wahrnimmt, finden Aussichten und Folgen von VR/AR und Robotik mit KI-Unterstützung bislang nur geringe Aufmerksamkeit. Ganz am Ende der Medientage, am Freitag nachmittag, widmete sich René Kasperek, Blickwinkel Tour, in einem nachdenklichen Referat "Chancen & Risiken neuer XR-Apps mit KI-Kontext". Er machte klar, daß die Nützlichkeit von Androiden oder XR-Umgebungen direkt vom Datenvolumen abhängt, je mehr Sensorik und Profildaten, desto besser. Der Nutzer wird also ohne einen digitalen Zwilling auf dem Server nicht auskommen.
Hier von einem "Datenschatten" zu sprechen, wäre eine gelinde Untertreibung. Wo dann die Privatsphäre bleibt, wird man vermutlich nicht in den neuen Datenbrillen lesen, die gerade konzipiert werden. Was sich AR, Augmentierte Realität, nennt, ist, auf den Nutzer bezogen, ein "Augmented Mind", also ein Bewußtsein mit technischer Erweiterung. Seine erweiterte Handlungsfähigkeit ist unmittelbar von dieser Technik abhängig. Hier kommt jene prekäre Rollenverteilung zum Vorschein, welche die gesamte Künstliche Intelligenz prägt: das Werkzeug emanzipiert sich von seinem Herrn, der über dessen Fähigkeiten nicht mehr verfügt. Man steuert also auf jene Dialektik von Herr und Knecht zu, die Hegel einst paradigmatisch formuliert hat.
Manchmal schaut man nach, was die KI in ihrer musischen Freizeit macht, und animiert sie, es auch mal mit Kunst zu versuchen. Wie man mit der KI musikalisch arbeiten kann (oder muß), führte Jakob Haas von den Münchner Symphonikern in einer Masterclass vor. Das Orchester beauftragte ein Orchesterwerk, das 2024 mit Googles Gemini realisiert wurde, allerdings auf eine erstaunlich archaische Weise. Weil das Sprachmodell keine digitale Notenschrift ausgeben kann, wurden die Noten als Tonbuchstaben geliefert und die Tondauern ebenfalls wortsprachlich.
Das fällt noch hinter das 11. Jahrhundert zurück, als G. v. Arezzo die moderne Notenschrift erfand. D.h. die Entscheidung eines einzelnen Unternehmens, eine bestimmte API nicht zur Verfügung zu stellen, bestimmt die künstlerische Arbeit mit diesem Werkzeug. Es ist auch kein Trost, daß die KI dann auf verbale Musikbeschreibungen in ihrem Trainingsmaterial zurückgreift. Da sind wir dann auf dem Niveau der im 19. und beginnenden 20. Jahrhundert beliebten "Konzertführer", die einem weitgehend notenunkundigen Publikum die überlieferten musikalischen Werke mit oft poetisierenden Nacherzählungen bekannt machen wollten. Mit dem Schrumpfen des Bildungsbürgertums ist diese Literaturgattung zum Glück verschwunden.
Das beispielhaft vorgestellte Werk "The Twin Paradox" ist nicht von der Art, daß es einem menschlichen Komponisten nicht hätte einfallen können, weder in der Dramaturgie, noch im Tonmaterial. Der Gattung nach ist es eine Symphonische Dichtung oder neudeutsch: A Symphonic Discourse. Die unhandliche Praxis und der große menschliche Anteil bei der Erstellung der Partitur sind keine Empfehlung, die KI bei solchen Aufgaben für einen Problemlöser zu halten, zumal es genügend Avantgardekomponisten gibt, die um Aufträge und Aufführungen kämpfen müssen, bei einem marginalen, um nicht zu sagen minimalen Publikum und schrumpfenden Kulturetats.




















































