Münchner Medientage 2019 – Künstliche Intelligenz
München [ENA] Es ist kein Zufall, daß das Thema KI ethische Fragen in die Medien- und Technikdiskussion bringt. Auf den Medientagen wurde in mehreren Veranstaltungen darauf Bezug genommen. Prof. Dr. J. Nida-Rümelin beschäftigt sich schon seit einigen Jahren mit KI.
Doch seine Ausführungen „Zur Ethik der Kommunikation in der digitalen Lebenswelt“ verharrten im direktiv-normativen Gestus, formulierten Wünschbarkeiten – bis hin zu einem ‚öffentlich-rechtlichen Google‘ – und erwiesen sich insofern angesichts der realen techno-ökonomischen Verhältnisse als unterkomplex. Hier geschah und geschieht doch offenbar eine Abstimmung mit den Füßen – oder vielmehr mit dem Mausklick oder Wischfinger. Was soll da eine Wiederbelebung obrigkeitshörigen Denkens, das den Bürger zu einem erwünschten Gebrauch der Informationsfreiheit anleiten soll?
Wenn hier ein „digitaler Humanismus“ gefordert wird, der dem Menschen die Gestaltungsfreiheit über seine Technik zurückgeben soll, ist diese Forderung falsch adressiert. Die Gestaltung findet ja statt, nur eben nicht hierzulande und nicht von denen, die von der Technik betroffen werden. Wenn schon, müßte man hier mit einer ‚Kritik der politischen Ökonomie‘ eingreifen, einem spätestens seit Karl Marx altehrwürdigen Metier mit hinreichendem Erfahrungswissen.
Im übrigen sollte man nicht annehmen, daß europäischer Humanismus in Kalifornien auf der Agenda stünde. Dieser wird im Zuge der Digitalisierung gleich mit erledigt und zum Transhumanismus weiterentwickelt. Wie weit die kalifornische Ideologie vom alteuropäischen Menschenbild entfernt ist, läßt sich übrigens leicht dem hübschen Roman Jonas Lüschers, „Kraft“, entnehmen, dessen Protagonist an diesem allzu großen Kontrast zu Grunde geht. Man sollte auch nicht annehmen, daß es eine Bestands- oder ‚Ewigkeits‘-Garantie für Humanismus, Demokratie, Klima oder ähnliche Wertsysteme gäbe.
Näher an der Maschine wollte eine andere Diskussion sein: „Mensch, Maschine und Moral – Wieviel Ethik braucht die Künstliche Intelligenz?“ Statt eines Quartetts plus Moderatorin gab es jedoch aufgrund von Teilnehmerabsagen nur einen beschaulichen Dialog mit Prof. Dr. Petra Grimm von der Hochschule der Medien in Stuttgart, die für eine „narrative Ethik“ plädierte. Daß sie für KI-Systeme Ethics-by-design forderte, konnte nicht überraschen, doch müßte im gleichen Atemzug selbiger Atem stocken, weil man weiß, wie schwierig schon die vergleichbare Strategie Security-by-design in der Branche zu implementieren ist.
Und selbst wenn sie gelänge, wäre die nächste Frage: welche Ethik? Grimm mußte auch eingestehen, daß das Entwicklungstempo der Technik zu rasch für die ethische Reflexion sei. Doch dies muß ja nicht gegen die Technik sprechen. Grimm erarbeitete mit ihren Studenten „10 Gebote der Digitalen Ethik“ (in der englischen Version nur als ‚Goldene Regeln‘ bezeichnet), aber auch dort finden sich harmonisierende Nettigkeiten aus der deutschen Komfortzone, die nur den kleinen Nachteil haben, den gegenwärtigen Geschäftsmodellen diametral entgegengesetzt zu sein.
Ebenfalls sehr niedlich kam Sepp daher. So hatte IBM eine kleine Variante des bekannten Roboters Pepper getauft, dem sie einen winzigen Ausschnitt aus ihrem KI-Universum Watson mitgaben. Dem Image Münchens entsprechend wurde ihm eine Lederhose angezogen, und er konnte Fragen zum Oktoberfest beantworten. Bayerischer Dialekt wäre allerdings zu anspruchsvoll gewesen. *
Gut gemeint waren sicherlich auch die in anderen KI-Diskussionen zu erlebenden Beschwichtigungsgesten, die den in Umfragen angeblich ermittelten Befürchtungen über die Auswirkungen der Digitalisierung im Allgemeinen und der KI im Besonderen entgegentreten wollten. So entzauberte Dr. Klaus Holthausen in der Diskussion „Künstliche Intelligenz: Wer arbeitet wirklich damit?“ die KI als „Rechenmaschine, die Regeln ausführt“. Daß sie diese Regeln vielleicht erst per Deep Learning selbst erarbeitet hat und u.U. nicht mehr unbedingt zur nachträglichen Überprüfung vorlegen kann, steht auf einem anderen Blatt.
Welche Möglichkeiten ‚Künstliche Intelligenz im und für das Fernsehen‘ eröffnet, demonstrierte in der gleichnamigen Diskussion Sebastian Döring, Pro7Sat1. Hauptsächlich geht es um Datenaufbereitung und Archiverschließung, etwa durch automatische Objekt- und Personenerkennung, Spracherkennung, dann aber auch Szenenerkennung, wie sie der Jugendschutz oder eine automatische Werbeclipplazierung innerhalb eines Spielfilms erfordern. Dies sind Rationalisierungsmaßnahmen hinter den Kulissen, die als unkritisch gelten können.
. Zu Dämonisierung besteht also kein Anlaß, doch die durch Big-Data-Analyse erreichbare Tiefe (der Erkenntnis) ist keineswegs harmlos und befeuert auch jenen Verdrängungswettbewerb, dem viele herkömmliche Arbeitsplätze zum Opfer fallen werden. Dies könnte auch der sarkastische Hintersinn in einer Bemerkung des KI-Kurators Christian Loclair gewesen sein, der in seiner Firma Waltz Binaire eine KI u.a. im Projekt Narziss zur Selbsterkenntnis zwingt. Die menschliche Selbsterkenntnis folgt auf dem Fuße: „Wir sind die KI, vor der wir uns fürchten."
Anders gesagt: alles, was an menschlichen Leistungen von einer KI übernommen werden kann und übernommen wird, erweist sich im Nachhinein als KI, d.h. als algorithmisierbarer Prozeß, für den wir keine menschliche Autorschaft mehr beanspruchen sollten. Auch wenn wir KI entwickeln und arbeiten lassen, begegnen wir uns darin doch wieder selbst – allerdings auch all jenen Problemen, die wir schon in der analogen Welt nicht gelöst, sondern nur vor uns hergeschoben haben. Wenn uns die KI unseren Mangel an Rationalität vor Augen führt, ist das allein schon ein Grund, sie in die Welt zu setzen und sich ihr auszusetzen.