Realistische KI-Videos: Was Sora 2 verändert

OpenAI hat mit Sora 2 ein neues Text-zu-Video-Modell vorgestellt. Es ermöglicht die Erstellung von Videos, die Bewegungen, Licht, Ton und Szenerie physikalisch genau simulieren. Das Modell erzeugt auch synchronisierten Ton, samt Sprache und Soundeffekte. Das Modell richtet sich an Kreative, Filmemacher, Content Creator sowie die Werbe- und Medienbranche.
Lesedauer: 4 Minuten
Icon of a Calendar
4. Dezember 2025

Was ist Sora 2?

Sora 2 stellt laut OpenAI einen bedeutenden Fortschritt im Bereich der Videokünstlichen Intelligenz dar. Es kann komplexe Bewegungen und physikalische Interaktionen realistisch abbilden, zum Beispiel Olympische Turnübungen mit glaubwürdigen Reaktionen auf Fehler. Dabei bleibt die Darstellung über mehrere Szenen hinweg konsistent, beispielsweise bei Figuren, Kleidung und Requisiten. Sora 2 unterstützt verschiedene visuelle Stile, darunter realistische und animehafte Darstellungen. Zusätzlich generiert es zu den Videos auch passenden Ton.

Sora App zur Videoproduktion

Die dazugehörige Sora-App ermöglicht es, per App KI-generierte Videos zu erstellen. Ein persönlicher Avatar kann mit einer kurzen Aufnahme erstellt und in verschiedene Szenen eingefügt werden. Neben dem Generieren eigener Videos bietet die App weitere Funktionen wie das Remixen anderer Inhalte und das Durchstöbern eines kuratierten Feeds. Ziel sei es, Kreativität zu fördern und nicht nur den reinen Medienkonsum zu steigern.

Aktuelle Herausforderungen

Die Verbreitung täuschend realistischer KI-Videos auf Plattformen wie TikTok und Instagram nimmt zu. Dies führt zu Problemen bei der Erkennung von KI-Inhalten, da Kennzeichnungspflichten meist unklar sind und Wasserzeichen entfernt werden können. Die realistische Darstellung von Personen, auch ohne deren Einwilligung, wirft zudem datenschutzrechtliche und ethische Fragen auf.

Sora 2 und Jugendschutz

Mit der weit verbreiteten Nutzung von Sora 2 entstehen vor allem auch kritische Fragen zum Jugendschutz. Minderjährige können mit der App problematische Inhalte erzeugen, darunter Amoklauf-Szenen, Drogenkonsum, Selbstverletzung und sexualisierte Gewalt. Auch die personalisierten Video-Feeds können problematische Vorschläge enthalten, beispielsweise antisemitische, rassistische oder gewalttätige Inhalte.

Die Moderation ist teilweise unzureichend und inkonsistent. Entwürfe mit schädlichen Videos können bestehen bleiben und eine wiederholte Generierung gefährlicher Clips ist möglich. Auch der Missbrauch von prominenten sowie verstorbenen Personen wurde dokumentiert. Bekannte Streamer erscheinen ohne Zustimmung, und verstorbene Persönlichkeiten wie Robin Williams oder Martin Luther King tauchen in respektlosen Szenen auf. OpenAI hat auf diese Kritik mit strengeren Regulierungen für öffentliche Personen reagiert.

Die hohe Verbreitung und einfache Bedienung führen zu einer schnellen Viralität von Inhalten. Schutzmechanismen wie Altersfilter greifen bisher nur eingeschränkt, sodass Jugendliche noch unzureichend geschützt sind.

Wie kann man das noch erkennen? Tipps zur Erkennung von KI-Videos trotz neuer Techniken:

  • Wasserzeichen oder Logos mit dem Hinweis „Sora 2“ sind häufig, können jedoch bei Weiterverbreitung fehlen.
  • Unnatürliche Details wie starre oder inkonsistente Bewegungen, unnatürliche Mimik, Augen, Finger oder Haare können Hinweise sein.
  • Licht- und Schattenverhältnisse wirken teilweise inkonsistent oder fehlen.
  • Kleine Fehler im Hintergrund wie Verzerrungen, flirrende Bereiche oder unscharfe Objekte deuten auf KI-Generierung hin.
  • Texte und Beschriftungen auf Schildern, Kleidungsstücken oder Objekten sind oft unleserlich oder fehlerhaft.
  • Eine detaillierte Analyse durch langsames Abspielen oder Einzelbildbetrachtung zeigt solche Fehler leichter.
  • Inhalte erscheinen glaubwürdig, wenn sie Vorwissen oder Vorurteilen entsprechen, wodurch Fehler oft übersehen werden.

Für Eltern und Fachkräfte ist es wichtig, Kinder im Umgang mit KI zu begleiten und ihnen Orientierung zu geben. Das setzt teilweise eine gewisse Medienkompetenz voraus. Ein zentraler Punkt ist, ansprechbar zu sein, sodass Kinder sich mit ihren Fragen, Sorgen oder Gedanken an vertraute Menschen wenden können. Bezüglich Deepfakes sollte man mit Kindern und Jugendlichen offen darüber reden, dass nicht alles, was man sieht oder hört, echt sein muss – KI kann Videos, Bilder oder Stimmen täuschend manipulieren. Wenn bei Kindern oder auch einem selbst Fragen aufkommen sollten, können diese auch gemeinsam recherchiert werden, um zusammen weiterzulernen.

Weitere Herausforderungen und Entwicklungen

KI-Fehler, die heute noch erkennbar sind, könnten bald nicht mehr auffallen, da die Modelle zunehmend realistischer werden. Ein Beispiel für Fortschritte in der Bild-KI ist Nano Banana Pro von Google, das vor allem bei der Generierung von Infografiken, Text im Bild und komplexen Bildmontagen punktet.

Das Missbrauchspotenzial bleibt hoch: Realistische Deepfakes ohne Einwilligung, problematische Inhalte wie Gewalt oder Desinformation und eine schnelle Verbreitung über soziale Medien sind und bleiben weiterhin Herausforderungen. Wichtig bleibt eine kritische Prüfung der Inhalte: Kann ein Bild überhaupt realistisch sein? Ergeben der Moment, die Umstände oder der Kontext Sinn?

Weitere Tipps von CORRECTIV gibt es hier: Gewaltvideo mit Open AI’s Sora erstellt – so erkennen Sie KI-Fakes

Weitere Informationen findest du hier:

Wo finde ich Material, um Jugendlichen Deep Fakes zu erklären? - ZEBRA

DIR FEHLT NOCH ETWAS?

Wir helfen dir sehr gerne persönlich weiter, denn dafür ist ZEBRA da! Schreib uns über unseren Live-Chat (werktags zwischen 9 und 21 Uhr), den WhatsApp-Messenger, das Eingabefeld auf der Startseite oder stell deine persönliche Frage per E-Mail an zebra@medienanstalt-nrw.de.

Weitere ZEBRA News