KI-Videos, auch mit Köln-Bezug, fluten das Netz – Was für viele ein Spaß ist, birgt großes Missbrauchspotenzial.
Technologie mit MissbrauchspotenzialEine Welt, in der Elvis Kölsch trinkt – KI-Videos und ihre Gefahren

Elvis in einer Kölner Kneipe mit einem Gläschen Schabau. KI-generiert.
Copyright: Sora 2
Elvis lebt. Und was viele bisher noch nicht wussten: Er hatte in seinen besten Jahren eine überraschend enge Bindung zu Köln. Das dokumentieren zumindest eine Reihe von Videos, die in den Sozialen Medien kursieren. Mit rot-weißem Schal schreitet der „King“ an Rosenmontag andächtig durch die Straßen und bekennt auf Englisch: „This is Cologne, friends. My favourite place outside of Memphis.“ Sein Lieblingsort außerhalb von Memphis sei Köln also. Und dann setzt er sogar noch einen obendrauf. „Ich ben e'ne Kölsche Jung, wat willste maache“, zitiert er den Hans-Süper-Klassiker. In einem anderen Video sitzt er an der Theke, ein Glas Schabau in seiner Hand. Trinken tut er es aber nicht. Willy Millowitsch habe ihn schließlich gewarnt: „Schnaps, das war sein letztes Wort.“
Elvis war also tatsächlich ne kölsche Jung. Oder? Es ist schließlich eindeutig er, der dort in den Videos schunkelt, mit Kapitänsmütze über den Rhein schippert, Kölsch trinkt oder Bayer Leverkusen anfeindet. Doch all das, was in den Videos zu sehen ist, ist so nicht passiert. Es handelt sich um von Künstlicher Intelligenz generierte Videos.

1248 in Köln: Ein Screenshot aus dem Video von „hakimdecoded“. KI-generiert.
Copyright: Sora 2
Spätestens seit OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, Ende September sein neues Text-zu-Video-Modell „Sora 2“ veröffentlicht hat, fluten teilweise extrem realistische KI-Videos das Netz. Viele der Clips sind zumindest aufgrund ihrer Absurdität verhältnismäßig leicht als KI-Inhalte zu enttarnen: Giraffen, die vom Zehn-Meter-Turm kopfüber ins Wasser tauchen, historische Personen wie Queen Elisabeth, die im Supermarkt randalieren, oder Chiropraktiker, die ihre Gäste bei der Behandlung versehentlich aus dem Fenster werfen.
Alles zum Thema Erzbistum Köln
- Technologie mit Missbrauchspotenzial Eine Welt, in der Elvis Kölsch trinkt – KI-Videos und ihre Gefahren
- Kölner Kirche Fotobuch dokumentiert Generalsanierung von St. Pantaleon
- Schau im LVR-Haus Spannender Blick auf Kölns Aufbruch in die Moderne
- „Wir öffnen Türchen“ Ein Blick in die glamouröse Welt der Reichen und Schönen in Brühl
- Krippenkunst und Krippenwege Ein Küchentisch als Werkbank - wie Krippenkunst entsteht
- Prozess in Köln Opfer von Missbrauch fordert eine Million Euro vom Erzbistum Köln
Videos dieser Art faszinieren derzeit ein Millionenpublikum. „Die Technologie selbst ist gegenwärtig sicherlich noch ein Hingucker“, sagt Stephan Packard, Professor für Kulturen und Theorien des Populären an der Uni Köln. „Wir sind von den neuen medialen Möglichkeiten fasziniert. Die Videos herzustellen und zu betrachten, bereitet eine Funktionslust. Wir staunen darüber, was alles möglich ist.“ KI-Videos seien derzeit besonders interessant für alle, die Reichweite in den Sozialen Medien aufbauen wollen. Das gilt für Unternehmen, die damit auch Produktionskosten für „normale“ Video-Formate sparen. Das gilt aber auch für Privatpersonen, die mit wenigen Klicks fotorealistische Videos erstellen können.
Auf eine hohe Reichweite hoffen mit ihren erstellten KI-Videos aktuell viele Nutzer in den Sozialen Medien. Neben den Elvis-Videos gibt es dabei auch jede Menge Inhalte mit Köln-Bezug. Einige besonders interessante von ihnen sind auf dem Instagram-Kanal „hakimdecoded“ mit rund 50.000 Followern zu finden. Hakim, der sich selbst als „CEO der alternativen Realität“ bezeichnet, reist in einem KI-Video beispielsweise zurück ins Jahr 1248. Es ist das Jahr, in dem der Bau des Kölner Doms beginnt. „Das ist so heftig, wie hart die hier arbeiten“, stellt Hakim fest. In einem anderen Video macht er sich auf die Suche nach dem Kölner Erzbischof Konrad von Hochstaden, wird vor dem Palast aber davongejagt, als er sich als Influencer zu erkennen gibt.
Video-KI: Technologie mit Missbrauchspotenzial
Faszinierend, verwirrend, verstörend – die Reaktionen unter den Videos sind vielfältig. So harmlos und unterhaltsam die genannte Beispiele wirken, so sehr ist aber auch klar, dass die gleiche Technologie zu weitaus mehr in der Lage ist – und erhebliches Missbrauchspotenzial birgt. „Wir sind es gewohnt, fotografisch aussehende Videos für Belege zu halten. Sie zu fälschen, war schon immer möglich, wird jetzt aber viel einfacher und dadurch häufiger vorkommen“, sagt Packard. „Wo immer reale Personen oder Ereignisse von der Darstellung betroffen sind, ist sowohl die Möglichkeit der Täuschung als auch der Demütigung, der Diskriminierung, der Verbreitung von Stereotypen und Hass erheblich größer.“
Generative KI reproduziere alle Schwächen des Materials, mit denen sie geschult werde. „Alle Formen der Diskriminierung, der Unter- und Falschrepräsentation in diesen Daten kommen in den generierten Bildern wieder“, sagt Packard. Gefährlich werde es zudem, wenn KI-generiertes Material zu einem bestimmenden Teil der Daten werde, die beim Training von KI-Systemen zum Einsatz kommen.
Die Entwicklung rund um KI-generierte Fotos und Videos befindet sich noch immer ganz am Anfang und wird laut Experten in den kommenden Jahren weiter an Fahrt aufnehmen. Wie lässt sich verhindern, dass aus der anfänglichen Spielerei ein ernsthaftes gesellschaftliches Problem wird? Für Packard ist klar: Ohne Spielregeln wird es nicht gehen. Entscheidend sei ein Zusammenspiel aus technischer Regulierung, gesetzlichen Vorgaben und sozialen Normen. Soziale Medien oder Suchmaschinen müssten Inhalte kuratieren und moderieren, gleichzeitig brauche es klare gesetzliche Standards, etwa die Option, eine gesetzlich strafbewehrte Kennzeichnung für garantiert menschlich erzeugte oder authentische Videos einzusetzen. Ebenso wichtig sei ein gesellschaftlicher Konsens darüber, welche Inhalte akzeptabel sind und welche Ächtung verdienen.
Manipulationen werden zur Normalität
Schon seit Jahren sind prominente Persönlichkeiten immer wieder von digital manipulierten Videos betroffen, sogenannten Deepfakes. Mit Künstlicher Intelligenz sind diese Manipulationen nun deutlich schneller und dazu immer realistischer zu erstellen. Dadurch nimmt die Zahl solcher Videos rasant zu, theoretisch kann jeder Mensch plötzlich in einem realistisch wirkenden Clip auftauchen. „Das wird genauso Alltag sein, wie es längst Alltag war, dass andere über uns reden können. Jetzt können sie sozusagen auch über uns filmen“, sagt Packard. Bei der Anwendung „Sora 2“ sind Videos real existierender Personen bislang verboten. Doch schon jetzt zeigen sich Schlupflöcher, wie Nutzende diese Verbote umgehen können. Wenn Elvis Kölsch trinkt, tut das keinem weh. Doch es braucht nicht viel Fantasie, um zu vorzustellen, wie die gleiche Technologie großen Schaden anrichten kann. Auch für das Thema Deepfakes, sagt Packard, brauche es daher dringend rechtliche und soziale Regeln.
Wie erkenne ich KI-Videos?
Frühere KI-Bild- und -Videomodelle hatten gravierendere Schwächen, durch die KI-Inhalte leicht als solche zu identifizieren waren. Einige Modelle konnten beispielsweise Hände nicht realistisch abbilden. Mittlerweile ist es deutlich schwerer geworden, KI-Videos und -Bilder zu erkennen. „Wöchentlich fallen neue Methoden weg. Das ist ein Wettrüsten zwischen Täuschung und Aufdeckung“, sagt Professor Stephan Packard. Für ihn sei klar: Videos gelten nicht mehr als Beweis. Anstatt Videos zu bewerten, gehe es nun eher darum, Quellen zu bewerten. „Dazu gehört auch, kritisch zu überlegen, welche Videos man selbst wie verbreiten oder weiterverbreiten will, wenn man vertrauenswürdig sein will.“
Im konkreten Fall der KI-Anwendung „Sora 2“ des Unternehmens „OpenAI“ lassen sich viele Videos derzeit noch durch ein Wasserzeichen erkennen, mit dem die Anwendung die Videos versieht. Allerdings gibt es auch hier schon Bewegung. Im Netz kursieren bereits andere KI-Anwendungen, die diese Wasserzeichen entfernen können.
