🎬 Deepfakes und die Ethik des Schnitts

🎬 Deepfakes und die Ethik des Schnitts

Zwischen Illusion, Innovation und Verantwortung

Wir leben in einer Zeit, in der Realität selbst formbar geworden ist.

Bilder, Stimmen, Gesichter – alles kann täuschend echt generiert oder verändert werden. Der Satz „Die Kamera lügt nicht“ hat längst seine Gültigkeit verloren.

Heute gilt: Jedes Bild oder Video kann lügen, und das überzeugender als je zuvor.

Die Frage für Filmschaffende lautet daher nicht mehr: „Können wir das?“, sondern: „Sollten wir das?“


💡 Ein kurzer Rückblick: Wie alles begann

Die Geschichte der Deepfakes ist jung, aber ihre Wurzeln liegen tief. Schon seit den Anfängen des Films war der Schnitt ein Werkzeug der Manipulation, oder ein Mittel, um Emotionen zu lenken, Zeit zu dehnen oder Realität neu zu ordnen. Cutter:innen entschieden schon immer darüber, was gezeigt wird und was nicht.

Doch mit dem Aufkommen der KI (Künstlichen Intelligenz) hat diese Macht eine neue Dimension erreicht.

2014 veröffentlichte der Forscher Ian Goodfellow das Konzept der Generative Adversarial Networks (GANs): zwei konkurrierende neuronale Netze, die lernen, realistische Bilder zu erzeugen. Das sogar so überzeugend, dass selbst andere KI-Systeme getäuscht wurden/ immernoch werden.

Was als akademisches Experiment begann, wurde rasch zu einem gesellschaftlichen Phänomen. Von Face Swap Apps über gefälschte Politikerreden bis hin zu virtuellen Influencer:innen oder digital verjüngten Schauspieler:innen in der Werbung. Die Technologie hat das Labor längst verlassen und ist mitten im Alltag angekommen.


🎥 Wenn Schnitt zur Simulation wird

Schnitt war schon immer Gestaltung: Eine bewusste Auswahl, ein Ordnen von Realität. Durch Montage, Rhythmus und Auslassung entsteht Bedeutung. Neu ist jedoch die Qualität der Eingriffe: Während früher vorhandenes Material neu interpretiert wurde, können heute Inhalte vollständig neu erzeugt werden.

https://www.researchgate.net/figure/cartoon-by-David-Suter_fig2_265509020

Das verändert nicht nur den Workflow, sondern das Fundament filmischer Wahrheit.

Ein Schauspieler, der nie am Set war, erscheint plötzlich glaubwürdig in einer Szene. Ein Satz, der nie gesprochen wurde, klingt echt. Ein längst verstorbener Künstler tritt digital wieder auf. Für das Publikum verschwimmen damit die Grenzen zwischen dokumentierter Realität, Inszenierung und Simulation.

Vincent Wenig, Co-Founder & Head of Post-Produktion von FILMFLUT, erinnert sich an seine erste bewusste Begegnung mit solchen Bildern:

„Ich erinnere mich an ein Video, das aussah wie echtes Überwachungskamera Material, nur dass darin völlig absurde Dinge passierten, etwa Tiere, die auf einem Trampolin springen. Damals war mir noch gar nicht sofort klar, dass das KI ist. - später ist es immer wieder mit anderen Tieren aufgetraucht. Aber genau solche Momente zeigen, wie schnell wir Bilder als ‚echt‘ akzeptieren.“

Gerade diese anfängliche Irritation ist entscheidend. Deepfakes funktionieren nicht, weil sie perfekt sind, sondern weil sie vertraute visuelle Codes nutzen. Sie bedienen Sehgewohnheiten, Formate und Bildsprachen, denen wir über Jahre gelernt haben zu vertrauen.

„Bei Fun-Content ist das eher faszinierend“, sagt Vincent. „Problematisch wird es dort, wo es politisch oder gesellschaftlich relevant wird. Darauf sind wir als Gesellschaft überhaubt nicht vorbereitet.“

Was hier sichtbar wird, ist ein Paradigmenwechsel: Postproduktion ist nicht mehr nur der letzte kreative Schritt, sondern zunehmend ein Ort, an dem Realität selbst konstruiert wird.

Post-Produktion wird damit zur Post-Truth-Produktion.


⚖️ Die ethische Schnittstelle

Mit großer Macht kommt große Verantwortung!

Eine Binsenweisheit, die in der Ära der KI aktueller denn je ist. Je leistungsfähiger die Werkzeuge werden, desto weniger reicht es aus, sich auf technische Regeln oder formale Standards zu verlassen.

Für Editor:innen bedeutet das: Sie sind nicht nur ausführende Instanzen, sondern aktive Mitgestalter:innen von Wirklichkeit.

Vincent Wenig bittet dabei aber, für eine präzise Unterscheidung:

„Manipulation ist für mich nicht automatisch Schnitt oder Inszenierung. Kritisch wird es dort, wo gezielt eine Wirklichkeit suggeriert wird, die so nicht stimmt, also eine bewusste Verzerrung mit einem bestimmten Ziel.“

Gerade in Journalismus, Politik und gesellschaftlich relevanten Formaten kann bereits eine kleine Verschiebung von Kontext oder Timing große Auswirkungen haben. Gleichzeitig ist völlige Objektivität kaum erreichbar.

„Wir alle sind geprägt durch unsere Perspektive. Neutralität ist ein Ideal, aber keine gelebte Realität.“

Umso wichtiger werden klare innere Maßstäbe:

„Die Grenze ist überschritten, wenn bewusst verfälscht wird, wenn Aussagen oder Bilder faktisch nicht mehr stimmen oder Menschen gezielt in die Irre geführt werden.“

Auch wenn FILMFLUT im Alltag vor allem Image und Werbefilme realisiert und dort aktuell wenig akutes Konfliktpotenzial erlebt, bleibt die strukturelle Frage bestehen: Was bedeutet kreative Arbeit noch, wenn Inhalte skalierbar, austauschbar und künstlich reproduzierbar werden?


🧠 Legitimer Einsatz oder gefährlicher Missbrauch?

Der Begriff Deepfake ist gesellschaftlich stark aufgeladen, vor allem durch seinen Einsatz in Desinformation, politischer Manipulation und gezielter Täuschung.

„Öffentlichen Personen Dinge in den Mund zu legen oder Situationen zu erzeugen, die nie stattgefunden haben, ist hochproblematisch“, so Vincent.

Gleichzeitig wäre es zu kurz gegriffen, jede KI-basierte Bild- oder Stimmerzeugung pauschal zu verurteilen. Entscheidend ist der Kontext, die Transparenz und die Intention.

Ein Beispiel aus der Praxis von FILMFLUT:

„Wir haben für einen Kunden einen KI-Avatar des Geschäftsführers erstellt. Er muss nicht ständig vor die Kamera. Einmal digital erfasst, lassen sich Updates oder Statements effizient produzieren. Das spart natürlich Zeit und Ressourcen.“

Solche Anwendungen verändern Produktionsprozesse, ohne zwangsläufig zu täuschen. Voraussetzung ist jedoch, dass klar bleibt, was real aufgenommen wurde und was nicht.

Auch im Bereich Satire sieht Vincent legitime Einsatzmöglichkeiten:

„Satire darf überzeichnen, zuspitzen und verfremden, solange für das Publikum eindeutig erkennbar ist, dass es sich um KI handelt.“

Die Trennlinie verläuft also nicht zwischen „KI“ und „Nicht-KI“, sondern zwischen verantwortungsvollem Einsatz und bewusster Irreführung.


🔍 Transparenz, Vertrauen und Kennzeichnung

Ob und wie KI gekennzeichnet werden sollte, lässt sich nicht pauschal beantworten. Für Vincent ist der Kontext entscheidend.

„Bei politischen, journalistischen oder informativen Inhalten sollte Transparenz Pflicht sein. Da geht es um Vertrauen, Einordnung und Verantwortung.“

Gerade im Social Media Bereich entstehen zusätzliche Problemlagen. Virtuelle Influencer:innen und KI-Avatare transportieren oft ein normiertes Bild von Perfektion, das mit realen Menschen wenig zu tun hat.

„Menschen haben Ecken und Kanten. Wenn KI das komplett glattzieht, entsteht eine Verzerrung, die man klar benennen sollte.“

Die Folgen für das Medienvertrauen sind bereits sichtbar:

„Die Gefahr ist längst da. Menschen werden mit Aussagen konfrontiert, die sie nie gemacht haben. Das beschädigt Vertrauen massiv.“

Verantwortung sieht Vincent dabei nicht nur bei den Nutzer:innen, sondern explizit bei den Plattformen:

„Dort entscheidet sich, wie Inhalte verbreitet, verstärkt oder eingeordnet werden. Ohne klare Regeln wird es sehr schwierig.“

🛑 Rechte, Zustimmung und Schutz und Jobs

Ein besonders greifbares Beispiel für dieses ethische Neuland zeigt sich im Bereich Sprecher:innen und Voice-over:

„KI-Stimmen sind schneller, günstiger, effizienter, aber daran hängen reale Existenzen. Professionelle Sprecher:innen spüren bereits, dass klassische Aufträge wegbrechen. So, dann natürlich auch Jobs.“

Besonders sensibel wird der Einsatz von KI dort, wo reale Menschen digital reproduziert werden, vor allem ohne deren Zustimmung.

„Das ist hochproblematisch“, warnt Vincent. „Wenn digitale Nachbildungen missbraucht werden, kann das enormen Schaden anrichten. Das geht von Rufschädigung bis zu sexualisierter Darstellung.“

Hier zeigt sich eine regulatorische Lücke zwischen technischer Machbarkeit und rechtlichem Schutz. Während Werkzeuge immer zugänglicher werden, hinken gesetzliche Regelungen oft hinterher.

Gleichzeitig hält Vincent ein vollständiges Ausschließen von KI für unrealistisch:

„KI steckt längst in Standardprozessen, sogar Rauschreduktion basiert oft darauf. KI ist längst Alltag.“

Die entscheidende Frage lautet daher nicht, ob KI eingesetzt wird, sondern wie bewusst.


🔮 Der Blick nach vorn

In den nächsten fünf bis zehn Jahren wird der Filmschnitt deutlich automatisierter werden.

„Vieles wird vorstrukturiert, Vorschläge werden generiert. Der Mensch bleibt aber Kontroll und Kurationsinstanz.“

Die Rolle von Editor:innen verschiebt sich: weniger Handarbeit, mehr Steuerung, Bewertung und Verantwortung.

Die Gefahr politischer und gesellschaftlicher Manipulation durch Deepfakes schätzt Vincent jedoch als enorm ein und real:

„Entscheidend ist, dass wir lernen, Inhalte stärker zu hinterfragen und technische Lösungen zur Verifizierung etablieren.“

Dabei sieht er auch die Plattformen in der Pflicht:

„Ohne klare Regeln, Kennzeichnung und Konsequenzen wird es schwer, Missbrauch einzudämmen.“

✉️ Fazit

Wir stehen am Beginn einer neuen Ära des Storytellings.

KI ist kein Feind des Films, sondern zwingt uns, genauer hinzuschauen, was wir erzählen und wie.

Denn wenn alles möglich ist, zählt nicht mehr nur, was wir können,

sondern warum wir es tun.

Der Schnitt der Zukunft ist nicht nur ein technischer, sondern ein moralischer Akt.

Was denkt ihr?