đŹ Deepfakes und die Ethik des Schnitts
Zwischen Illusion, Innovation und Verantwortung
Wir leben in einer Zeit, in der RealitÀt selbst formbar geworden ist.
Bilder, Stimmen, Gesichter â alles kann tĂ€uschend echt generiert oder verĂ€ndert werden. Der Satz âDie Kamera lĂŒgt nichtâ hat lĂ€ngst seine GĂŒltigkeit verloren.
Heute gilt: Jedes Bild oder Video kann lĂŒgen, und das ĂŒberzeugender als je zuvor.
Die Frage fĂŒr Filmschaffende lautet daher nicht mehr: âKönnen wir das?â, sondern: âSollten wir das?â
đĄ Ein kurzer RĂŒckblick: Wie alles begann
Die Geschichte der Deepfakes ist jung, aber ihre Wurzeln liegen tief. Schon seit den AnfĂ€ngen des Films war der Schnitt ein Werkzeug der Manipulation, oder ein Mittel, um Emotionen zu lenken, Zeit zu dehnen oder RealitĂ€t neu zu ordnen. Cutter:innen entschieden schon immer darĂŒber, was gezeigt wird und was nicht.
Doch mit dem Aufkommen der KI (KĂŒnstlichen Intelligenz) hat diese Macht eine neue Dimension erreicht.
2014 veröffentlichte der Forscher Ian Goodfellow das Konzept der Generative Adversarial Networks (GANs): zwei konkurrierende neuronale Netze, die lernen, realistische Bilder zu erzeugen. Das sogar so ĂŒberzeugend, dass selbst andere KI-Systeme getĂ€uscht wurden/ immernoch werden.
Was als akademisches Experiment begann, wurde rasch zu einem gesellschaftlichen PhĂ€nomen. Von Face Swap Apps ĂŒber gefĂ€lschte Politikerreden bis hin zu virtuellen Influencer:innen oder digital verjĂŒngten Schauspieler:innen in der Werbung. Die Technologie hat das Labor lĂ€ngst verlassen und ist mitten im Alltag angekommen.
đ„ Wenn Schnitt zur Simulation wird
Schnitt war schon immer Gestaltung: Eine bewusste Auswahl, ein Ordnen von RealitĂ€t. Durch Montage, Rhythmus und Auslassung entsteht Bedeutung. Neu ist jedoch die QualitĂ€t der Eingriffe: WĂ€hrend frĂŒher vorhandenes Material neu interpretiert wurde, können heute Inhalte vollstĂ€ndig neu erzeugt werden.

https://www.researchgate.net/figure/cartoon-by-David-Suter_fig2_265509020
Das verÀndert nicht nur den Workflow, sondern das Fundament filmischer Wahrheit.
Ein Schauspieler, der nie am Set war, erscheint plötzlich glaubwĂŒrdig in einer Szene. Ein Satz, der nie gesprochen wurde, klingt echt. Ein lĂ€ngst verstorbener KĂŒnstler tritt digital wieder auf. FĂŒr das Publikum verschwimmen damit die Grenzen zwischen dokumentierter RealitĂ€t, Inszenierung und Simulation.
Vincent Wenig, Co-Founder & Head of Post-Produktion von FILMFLUT, erinnert sich an seine erste bewusste Begegnung mit solchen Bildern:
âIch erinnere mich an ein Video, das aussah wie echtes Ăberwachungskamera Material, nur dass darin völlig absurde Dinge passierten, etwa Tiere, die auf einem Trampolin springen. Damals war mir noch gar nicht sofort klar, dass das KI ist. - spĂ€ter ist es immer wieder mit anderen Tieren aufgetraucht. Aber genau solche Momente zeigen, wie schnell wir Bilder als âechtâ akzeptieren.â
Gerade diese anfĂ€ngliche Irritation ist entscheidend. Deepfakes funktionieren nicht, weil sie perfekt sind, sondern weil sie vertraute visuelle Codes nutzen. Sie bedienen Sehgewohnheiten, Formate und Bildsprachen, denen wir ĂŒber Jahre gelernt haben zu vertrauen.
âBei Fun-Content ist das eher faszinierendâ, sagt Vincent. âProblematisch wird es dort, wo es politisch oder gesellschaftlich relevant wird. Darauf sind wir als Gesellschaft ĂŒberhaubt nicht vorbereitet.â
Was hier sichtbar wird, ist ein Paradigmenwechsel: Postproduktion ist nicht mehr nur der letzte kreative Schritt, sondern zunehmend ein Ort, an dem RealitÀt selbst konstruiert wird.
Post-Produktion wird damit zur Post-Truth-Produktion.
âïž Die ethische Schnittstelle
Mit groĂer Macht kommt groĂe Verantwortung!
Eine Binsenweisheit, die in der Ăra der KI aktueller denn je ist. Je leistungsfĂ€higer die Werkzeuge werden, desto weniger reicht es aus, sich auf technische Regeln oder formale Standards zu verlassen.
FĂŒr Editor:innen bedeutet das: Sie sind nicht nur ausfĂŒhrende Instanzen, sondern aktive Mitgestalter:innen von Wirklichkeit.
Vincent Wenig bittet dabei aber, fĂŒr eine prĂ€zise Unterscheidung:
âManipulation ist fĂŒr mich nicht automatisch Schnitt oder Inszenierung. Kritisch wird es dort, wo gezielt eine Wirklichkeit suggeriert wird, die so nicht stimmt, also eine bewusste Verzerrung mit einem bestimmten Ziel.â
Gerade in Journalismus, Politik und gesellschaftlich relevanten Formaten kann bereits eine kleine Verschiebung von Kontext oder Timing groĂe Auswirkungen haben. Gleichzeitig ist völlige ObjektivitĂ€t kaum erreichbar.
âWir alle sind geprĂ€gt durch unsere Perspektive. NeutralitĂ€t ist ein Ideal, aber keine gelebte RealitĂ€t.â
Umso wichtiger werden klare innere MaĂstĂ€be:
âDie Grenze ist ĂŒberschritten, wenn bewusst verfĂ€lscht wird, wenn Aussagen oder Bilder faktisch nicht mehr stimmen oder Menschen gezielt in die Irre gefĂŒhrt werden.â
Auch wenn FILMFLUT im Alltag vor allem Image und Werbefilme realisiert und dort aktuell wenig akutes Konfliktpotenzial erlebt, bleibt die strukturelle Frage bestehen: Was bedeutet kreative Arbeit noch, wenn Inhalte skalierbar, austauschbar und kĂŒnstlich reproduzierbar werden?

đ§ Legitimer Einsatz oder gefĂ€hrlicher Missbrauch?
Der Begriff Deepfake ist gesellschaftlich stark aufgeladen, vor allem durch seinen Einsatz in Desinformation, politischer Manipulation und gezielter TĂ€uschung.
âĂffentlichen Personen Dinge in den Mund zu legen oder Situationen zu erzeugen, die nie stattgefunden haben, ist hochproblematischâ, so Vincent.
Gleichzeitig wÀre es zu kurz gegriffen, jede KI-basierte Bild- oder Stimmerzeugung pauschal zu verurteilen. Entscheidend ist der Kontext, die Transparenz und die Intention.
Ein Beispiel aus der Praxis von FILMFLUT:
âWir haben fĂŒr einen Kunden einen KI-Avatar des GeschĂ€ftsfĂŒhrers erstellt. Er muss nicht stĂ€ndig vor die Kamera. Einmal digital erfasst, lassen sich Updates oder Statements effizient produzieren. Das spart natĂŒrlich Zeit und Ressourcen.â
Solche Anwendungen verÀndern Produktionsprozesse, ohne zwangslÀufig zu tÀuschen. Voraussetzung ist jedoch, dass klar bleibt, was real aufgenommen wurde und was nicht.
Auch im Bereich Satire sieht Vincent legitime Einsatzmöglichkeiten:
âSatire darf ĂŒberzeichnen, zuspitzen und verfremden, solange fĂŒr das Publikum eindeutig erkennbar ist, dass es sich um KI handelt.â
Die Trennlinie verlĂ€uft also nicht zwischen âKIâ und âNicht-KIâ, sondern zwischen verantwortungsvollem Einsatz und bewusster IrrefĂŒhrung.

đ Transparenz, Vertrauen und Kennzeichnung
Ob und wie KI gekennzeichnet werden sollte, lĂ€sst sich nicht pauschal beantworten. FĂŒr Vincent ist der Kontext entscheidend.
âBei politischen, journalistischen oder informativen Inhalten sollte Transparenz Pflicht sein. Da geht es um Vertrauen, Einordnung und Verantwortung.â
Gerade im Social Media Bereich entstehen zusÀtzliche Problemlagen. Virtuelle Influencer:innen und KI-Avatare transportieren oft ein normiertes Bild von Perfektion, das mit realen Menschen wenig zu tun hat.
âMenschen haben Ecken und Kanten. Wenn KI das komplett glattzieht, entsteht eine Verzerrung, die man klar benennen sollte.â
Die Folgen fĂŒr das Medienvertrauen sind bereits sichtbar:
âDie Gefahr ist lĂ€ngst da. Menschen werden mit Aussagen konfrontiert, die sie nie gemacht haben. Das beschĂ€digt Vertrauen massiv.â
Verantwortung sieht Vincent dabei nicht nur bei den Nutzer:innen, sondern explizit bei den Plattformen:
âDort entscheidet sich, wie Inhalte verbreitet, verstĂ€rkt oder eingeordnet werden. Ohne klare Regeln wird es sehr schwierig.â
đ Rechte, Zustimmung und Schutz und Jobs
Ein besonders greifbares Beispiel fĂŒr dieses ethische Neuland zeigt sich im Bereich Sprecher:innen und Voice-over:
âKI-Stimmen sind schneller, gĂŒnstiger, effizienter, aber daran hĂ€ngen reale Existenzen. Professionelle Sprecher:innen spĂŒren bereits, dass klassische AuftrĂ€ge wegbrechen. So, dann natĂŒrlich auch Jobs.â
Besonders sensibel wird der Einsatz von KI dort, wo reale Menschen digital reproduziert werden, vor allem ohne deren Zustimmung.
âDas ist hochproblematischâ, warnt Vincent. âWenn digitale Nachbildungen missbraucht werden, kann das enormen Schaden anrichten. Das geht von RufschĂ€digung bis zu sexualisierter Darstellung.â
Hier zeigt sich eine regulatorische LĂŒcke zwischen technischer Machbarkeit und rechtlichem Schutz. WĂ€hrend Werkzeuge immer zugĂ€nglicher werden, hinken gesetzliche Regelungen oft hinterher.
Gleichzeitig hĂ€lt Vincent ein vollstĂ€ndiges AusschlieĂen von KI fĂŒr unrealistisch:
âKI steckt lĂ€ngst in Standardprozessen, sogar Rauschreduktion basiert oft darauf. KI ist lĂ€ngst Alltag.â
Die entscheidende Frage lautet daher nicht, ob KI eingesetzt wird, sondern wie bewusst.

đź Der Blick nach vorn
In den nĂ€chsten fĂŒnf bis zehn Jahren wird der Filmschnitt deutlich automatisierter werden.
âVieles wird vorstrukturiert, VorschlĂ€ge werden generiert. Der Mensch bleibt aber Kontroll und Kurationsinstanz.â
Die Rolle von Editor:innen verschiebt sich: weniger Handarbeit, mehr Steuerung, Bewertung und Verantwortung.
Die Gefahr politischer und gesellschaftlicher Manipulation durch Deepfakes schÀtzt Vincent jedoch als enorm ein und real:
âEntscheidend ist, dass wir lernen, Inhalte stĂ€rker zu hinterfragen und technische Lösungen zur Verifizierung etablieren.â
Dabei sieht er auch die Plattformen in der Pflicht:
âOhne klare Regeln, Kennzeichnung und Konsequenzen wird es schwer, Missbrauch einzudĂ€mmen.â

âïž Fazit
Wir stehen am Beginn einer neuen Ăra des Storytellings.
KI ist kein Feind des Films, sondern zwingt uns, genauer hinzuschauen, was wir erzÀhlen und wie.
Denn wenn alles möglich ist, zÀhlt nicht mehr nur, was wir können,
sondern warum wir es tun.
Der Schnitt der Zukunft ist nicht nur ein technischer, sondern ein moralischer Akt.
Was denkt ihr?