Was ist Sora 2?
Sora 2 stellt laut OpenAI einen bedeutenden Fortschritt im Bereich der Videokünstlichen Intelligenz dar. Es kann komplexe Bewegungen und physikalische Interaktionen realistisch abbilden, zum Beispiel Olympische Turnübungen mit glaubwürdigen Reaktionen auf Fehler. Dabei bleibt die Darstellung über mehrere Szenen hinweg konsistent, beispielsweise bei Figuren, Kleidung und Requisiten. Sora 2 unterstützt verschiedene visuelle Stile, darunter realistische und animehafte Darstellungen. Zusätzlich generiert es zu den Videos auch passenden Ton.
Sora App zur Videoproduktion
Die dazugehörige Sora-App ermöglicht es, per App KI-generierte Videos zu erstellen. Ein persönlicher Avatar kann mit einer kurzen Aufnahme erstellt und in verschiedene Szenen eingefügt werden. Neben dem Generieren eigener Videos bietet die App weitere Funktionen wie das Remixen anderer Inhalte und das Durchstöbern eines kuratierten Feeds. Ziel sei es, Kreativität zu fördern und nicht nur den reinen Medienkonsum zu steigern.
Aktuelle Herausforderungen
Die Verbreitung täuschend realistischer KI-Videos auf Plattformen wie TikTok und Instagram nimmt zu. Dies führt zu Problemen bei der Erkennung von KI-Inhalten, da Kennzeichnungspflichten meist unklar sind und Wasserzeichen entfernt werden können. Die realistische Darstellung von Personen, auch ohne deren Einwilligung, wirft zudem datenschutzrechtliche und ethische Fragen auf.
Sora 2 und Jugendschutz
Mit der weit verbreiteten Nutzung von Sora 2 entstehen vor allem auch kritische Fragen zum Jugendschutz. Minderjährige können mit der App problematische Inhalte erzeugen, darunter Amoklauf-Szenen, Drogenkonsum, Selbstverletzung und sexualisierte Gewalt. Auch die personalisierten Video-Feeds können problematische Vorschläge enthalten, beispielsweise antisemitische, rassistische oder gewalttätige Inhalte.
Die Moderation ist teilweise unzureichend und inkonsistent. Entwürfe mit schädlichen Videos können bestehen bleiben und eine wiederholte Generierung gefährlicher Clips ist möglich. Auch der Missbrauch von prominenten sowie verstorbenen Personen wurde dokumentiert. Bekannte Streamer erscheinen ohne Zustimmung, und verstorbene Persönlichkeiten wie Robin Williams oder Martin Luther King tauchen in respektlosen Szenen auf. OpenAI hat auf diese Kritik mit strengeren Regulierungen für öffentliche Personen reagiert.
Die hohe Verbreitung und einfache Bedienung führen zu einer schnellen Viralität von Inhalten. Schutzmechanismen wie Altersfilter greifen bisher nur eingeschränkt, sodass Jugendliche noch unzureichend geschützt sind.
Wie kann man das noch erkennen? Tipps zur Erkennung von KI-Videos trotz neuer Techniken:
Für Eltern und Fachkräfte ist es wichtig, Kinder im Umgang mit KI zu begleiten und ihnen Orientierung zu geben. Das setzt teilweise eine gewisse Medienkompetenz voraus. Ein zentraler Punkt ist, ansprechbar zu sein, sodass Kinder sich mit ihren Fragen, Sorgen oder Gedanken an vertraute Menschen wenden können. Bezüglich Deepfakes sollte man mit Kindern und Jugendlichen offen darüber reden, dass nicht alles, was man sieht oder hört, echt sein muss – KI kann Videos, Bilder oder Stimmen täuschend manipulieren. Wenn bei Kindern oder auch einem selbst Fragen aufkommen sollten, können diese auch gemeinsam recherchiert werden, um zusammen weiterzulernen.
Weitere Herausforderungen und Entwicklungen
KI-Fehler, die heute noch erkennbar sind, könnten bald nicht mehr auffallen, da die Modelle zunehmend realistischer werden. Ein Beispiel für Fortschritte in der Bild-KI ist Nano Banana Pro von Google, das vor allem bei der Generierung von Infografiken, Text im Bild und komplexen Bildmontagen punktet.
Das Missbrauchspotenzial bleibt hoch: Realistische Deepfakes ohne Einwilligung, problematische Inhalte wie Gewalt oder Desinformation und eine schnelle Verbreitung über soziale Medien sind und bleiben weiterhin Herausforderungen. Wichtig bleibt eine kritische Prüfung der Inhalte: Kann ein Bild überhaupt realistisch sein? Ergeben der Moment, die Umstände oder der Kontext Sinn?
Weitere Tipps von CORRECTIV gibt es hier: Gewaltvideo mit Open AI’s Sora erstellt – so erkennen Sie KI-Fakes
Weitere Informationen findest du hier:
Wo finde ich Material, um Jugendlichen Deep Fakes zu erklären? - ZEBRA