25. 4. 2023
creative.talk

Mads Pankow
Publizist und Politikberater

Mads Pankow ist selbstständiger Politikberater, Autor und Moderator. Er hält europaweit Vorträge zu Themen der digitalen Gesellschaft und künstlichen Intelligenz. In Radio und Print ist er als „Netzexperte“ (ARD-Alpha) und „Technikphilosoph“ (DER SPIEGEL) gefragt. Seit 2021 ist er wöchentlich im Podcast „Mensch, Maschine!“ zu hören.

Foto: Steven Haberland

Spätestens mit der Einführung des Chatbots ChatGTP ist die generative künstliche Intelligenz in der Mitte der Gesellschaft angekommen. Wie unterscheidet sich die künstliche von der menschlichen Kreativität? Und kann KI wirklich innovativ oder gar disruptiv sein?

Es gibt ja auch bei Menschen ganz unterschiedliche Methoden kreativ zu sein. Einige davon können Computer simulieren. Die einfachste ist Kreativität nach Vorschrift, d.h. nach bestimmten Gestaltungs- oder Kompositionsregeln Bilder oder Musikstücke zu erstellen. Das fällt Algorithmen leicht, das kann man einfach programmieren.

Außerdem gibt es Algorithmen, die sich die Kreativität von Menschen abschauen, die also mit lernenden neuronalen Netzen aus Hunderttausenden von Werken bestimmte Muster abstrahieren und reproduzieren können. Das sehen wir gerade besonders bei Bildgeneratoren wie Midjourney, Stable Diffusion und DALL-E.

Interessant ist dabei, dass KIs häufig die ungeschliffeneren, aber auch radikaleren Entwürfe liefern, weil sie nicht so stark durch unsere Seh- oder Gestaltungsgewohnheiten eingeschränkt sind. Das haben sich zum Beispiel Jazzmusiker schon in den 70er- und 80er-Jahren zunutze gemacht. Die haben einfache Algorithmen improvisieren lassen und mit denen Duette gespielt.

Dieses „radikal Andere“ kann man interessanterweise auch besonders in der konstruierenden Kreativität, z.B. in Ingenieur:innenberufen beobachten. Konstruktionen wie Fassaden, aber auch Flugzeugbauteile oder Schaltungsentwürfe können Algorithmen besonders gut entwickeln, da sie durch Versuch und Irrtum Lösungen finden, auf die Menschen nicht kommen würden.

Diese Algorithmen arbeiten häufig mit Prinzipien der Evolution: Versuch, Auswahl und Anpassung. Und so kommen sie, ähnlich wie die Evolution, allein durch das Ausprobieren zu besonders originellen Lösungen. Das sind aber eben nicht immer die besten Lösungen, genau wie in der Natur auch. Beine sind schon gut, Räder aber vielleicht noch besser. Und wie schlecht Knie konstruiert sind, davon können Orthopäd:innen Lieder singen. Nur weil es funktioniert, ist es nicht immer optimal.

Das ist der entscheidende Unterschied zwischen kreativen Algorithmen und menschlicher Kreativität. Menschen entwickeln Lösungen durch Einsicht, durch Verständnis. Maschinen reproduzieren nur Muster oder entwickeln durch Versuch und Irrtum. Beides hat Vor- und Nachteile, ist aber nicht durcheinander zu ersetzen.

Mit KI tun sich neue Fragen zum Thema Urheberrecht auf. Das beginnt schon damit, dass die KI mit teilweise urheberrechtlich geschütztem Content „trainiert“ wird, in der Regel ohne Einwilligung oder gar Vergütung der Urheber:innen. Die Initiative EGAIR (European Guild for Artificial Intelligence Regulation) fordert deshalb die Einführung eines „Training Rights“, durch das die Einwilligung der Urheber:innen verpflichtend wird. Wie beurteilst du das?

Ich bin kein Urheberrechtsexperte, aber ich kann diese Initiative gut verstehen. Wenn große KI-Firmen Kapital aus meiner Arbeit schlagen, möchte ich dazu wenigstens gefragt werden. In der Praxis ist das aber wahrscheinlich nicht relevant. Wir sprechen hier von so gigantischen Datensätzen, dass eine Künstlerin oder ein Künstler mehr oder weniger keinen Unterschied für das Training der Algorithmen machen. Außerdem reproduzieren zum Beispiel Bildgeneratoren ja ästhetische Muster aus Millionen von Werken, der kreative Anteil des Einzelnen am Endwerk ist also verschwindend gering. Ich habe dazu leider keine tröstenden Worte.

Der Einsatz von KI im kreativen Schaffensprozess wirft auch in Bezug auf die Autorschaft und das damit einhergehende Urheberrecht neue Fragen auf. Sollte KI-generierten Werken ein urheberrechtlicher Schutz zukommen, und wer sollte von dem Schutz profitieren?

Ich fremdel ohnehin mit dem Konzept Autor. Wie viel Einzelleistung steckt in einem Werk, wie viel ist Produkt von Ausbildung, von Inspiration durch andere, der Ideen- und Kunstgeschichte und natürlich der Werkzeuge, die wir nutzen. Erst recht, wenn wir Werkzeuge benutzen, die diese Zivilisationsgeschichte schon in sich tragen und reproduzieren, wie die aktuellen Text- und Bildgeneratoren. Die leisten natürlich schon sehr viel selbst, aber letztlich bleiben auch KIs nur ein Werkzeug. Es ergibt für mich wenig Sinn, die Urheberschaft beim Werkzeug zu belassen oder beim Werkzeughersteller.

Letztlich bleibt also wieder nur der Maschinenbediener oder die -bedienerin als Autor. Und tatsächlich: So einfach ist das gar nicht – versuche einmal, gute Texte oder Bilder mit den Modellen zu generieren. Das muss man erst einmal lernen.

Letztlich bleibt aber die Frage, welchen Wert ein Urheberrecht hat, wenn zumindest mittelmäßige kreative Werke mit den richtigen Befehlen durch ein breites Publikum jederzeit reproduziert werden können, wenn also beispielsweise niemand mehr Stock-Fotos kaufen braucht, weil er oder sie sich selber ansprechende Bilder in Midjourney generieren kann.

So wie KI den gesamten Arbeitsmarkt verändert und verändern wird, ist auch die Kultur- und Kreativwirtschaft betroffen. Bestimmte kreative Tätigkeiten können von Maschinen übernommen werden. Wie können sich Kreative in dieser zunehmend digitalisierten Welt behaupten, und wo werden ihre Fähigkeiten trotz oder gerade wegen KI gebraucht? 

Durch die immer zahlreicheren und immer besseren smarten Assistenten, die unseren Alltag, aber auch die Arbeitswelt und besonders die Arbeit am Computer durchziehen, verändert sich die Rolle der Kreativarbeitenden weg vom Handwerk zu einer Art Mini-Creative-Director. Die neue Aufgabe ist, die Tools so zu instruieren, dass sie am Ende möglichst das liefern, was ich brauche oder was mich wiederum zu guten Lösungen inspiriert. Dazu muss man lernen, die Maschinen zu bedienen, die richtigen Eingaben zu schreiben. Prompt-Engineering nennt sich das. Prompt-Engineering ist das neue „gut googlen können“, eine Kulturtechnik, die nahezu jede Arbeit erleichtert.

Ich sehe das Verhältnis von Mensch und Maschine weniger als Konkurrenz, denn als Kollaboration. Auf Twitter habe ich mal den schönen Aphorismus gelesen: „Not AI will replace you. A person using AI will.“ Konkret heißt das: Wir müssen lernen, unsere Aufgaben und Herausforderungen so zu formulieren, dass auch Maschinen sie verstehen. Wir müssen die Ergebnisse kontrollieren und anpassen und am Ende unter vielen Entwürfen den richtigen auswählen.

Neben der Faszination für die Leistungsfähigkeit der neuen KI-Systeme birgt die Technologie auch Risiken wie die Verbreitung von Falschinformationen durch Deep Fakes oder zunehmende Diskriminierungstendenzen. Wo siehst du die größten Gefahren in der KI-Entwicklung, und wie kann man sie bewältigen?

Klar, Biases sind immer ein Problem. KIs reproduzieren die Vorurteile, die in den Daten stecken, aus denen sie gelernt haben. Das lässt sich auch nie endgültig lösen, weil wir selber gar nicht abschätzen können, wo diese Vorurteile überall quasi unsichtbar verwebt sind. Durch entsprechende Regulierung und Selbstregulierung habe ich aber das Gefühl, dass wir da aktuell einen guten, weitestgehend sicheren Arbeitsstand haben. Vorurteile lassen sich nie endgültig verhindern, weder bei Maschinen und noch weniger bei Menschen, durch die richtigen Prozeduren lassen sie sich aber eindämmen.

Was ich gruselig finde, ist, wie mächtig einzelne Individuen durch die geschickte Orchestrierung von KI-Tools werden. Das ist ein Fest für verbitterte Trolle. Die können mit wenigen Klicks große Reichweiten oder Shitstorms generieren. Hate Speech bleibt für mich eines der zentralen Probleme des Netzes. Da werden Leute in den Selbstmord getrieben. Hier sind die Kommunikationsplattformen gefragt, ob das Mailprovider oder Social Networks sind. Der zunehmenden Automatisierung der Kommunikation muss auch eine zunehmende Automatisierung der Kontrolle entgegengesetzt werden, um die Menschen zu schützen.

 Jenseits der eigenen Problemstellungen, wie kann KI selbst zur Bewältigung der aktuellen gesellschaftlichen Herausforderungen beitragen? Welches soziale, ökologische oder wirtschaftliche Potenzial siehst du?

Was Algorithmen besonders gut können, ist Optimierung, zum Beispiel von Energieverbrauch, aber auch von Arbeitsabläufen oder Ressourceneinsatz. Da ist viel zu holen.

Aber auch Entscheidungen können vielleicht nicht optimiert, aber unterstützt werden, zum Beispiel durch die Nutzung von Datenanalysen und Simulationen. Interessant finde ich auch die Frage, was die Unterstützung durch künstliche Intelligenz mit unserer Arbeit macht. Einige Jobs profitieren mehr davon als andere, weil der Anteil automatisierbarer Arbeit nicht überall gleich hoch ist, aber alle sind auf die eine oder andere Art betroffen. Das wird uns alle effizienter und bestenfalls auch effektiver machen. Die Frage ist, was wir mit der gewonnenen Zeit machen. Werden wir sie nutzen, um noch produktiver zu werden, werden wir sie nutzen, um mehr Freizeit zu haben? Ich nehme an, beides, aber auch nur in Grenzen. Statistiken zeigen: Menschen sind mit etwas über 40 Stunden Arbeit am glücklichsten. Das heißt, wir werden uns schon zu beschäftigen wissen. Mit etwas Glück vertändeln wir die Zeit nicht, sondern investieren sie sinnvoll, zum Beispiel in soziale Arbeit, da gibt es immer genug zu tun, und da ist wenig zu automatisieren. Egal wie viele Pflegeroboter oder Chatbots man baut: Als Interaktionspartner:in werden wir weiterhin nur Menschen akzeptieren. Ohne ein Bewusstsein im Gegenüber ist ein Gespräch nichts wert. Das ist dann höchstens Projektion, so wie mit Pflanzen reden.

All diese Fragen hätten wir auch ChatGPT stellen können. Warum ist es besser, dass wir dich gefragt haben?

Oh ja, ChatGPT hätte ganz sicher auch passende Antworten gefunden. Die Frage ist nur, ob diese auch interessant und informativ gewesen wären. ChatGPT operiert ja mit Wortfolgewahrscheinlichkeiten, die es aus riesigen Textkorpora herausgelesen hat. Das führt zu lesbaren Ergebnissen, aber auch immer sehr generischen – durchschnittlichen – Standpunkten. Das wird sich auch nicht groß ändern. KIs verstehen ja nicht, was sie sagen, sie reproduzieren nur, was wir hören wollen, darauf sind sie trainiert. Man könnte sagen, sie schwafeln. Wer seine Karriere also auf dem Prinzip: „Sicheres Auftreten trotz völliger Ahnungslosigkeit“ aufgebaut hat, dessen Job ist jetzt wirklich in Gefahr. Das können diese großen Sprachmodelle besser.

Im Gegensatz dazu hoffe ich, dass ich ein paar originelle und pointierte Thesen liefern konnte. Aber vielleicht müsste man das mit ChatGPT mal ausprobieren. Vielleicht überschätze ich meine eigene Originalität ja auch.

Mehr Infos zu Mads Pankow