KI-generierte Inhalte können unterhaltsam sein – aber auch gefährlich. Um zwischen Realität und Fälschung zu unterscheiden, müssen Nutzerinnen und Nutzer auf Details in der Verarbeitung, den Inhalten und den Quellen von Bildern und Videos achten und sich selbst trainieren, um Deepfakes zu erkennen.
Künstliche-Intelligenz-Modelle entwickeln sich stetig weiter. Immer häufiger kursieren Meldungen mit täuschend echt aussehenden Bildern und Videos, die oftmals aufsehenerregende Inhalte zeigen – sei es ein angeblich brennender Eiffelturm oder ein Staatsoberhaupt, das eine merkwürdige Rede zu halten scheint.
Solche Bilder und Videos nennt man „Deepfakes“. Diese können vergleichsweise harmlos sein und für humoristische Zwecke Verwendung finden, sie können jedoch ebenso zum Instrument von gezielter Desinformation werden.
Deshalb ist es wichtig, auch bei modernsten KI-generierten Inhalten noch den Unterschied zwischen Realität und Fälschung erkennen zu können. Dafür muss man nach den kleinen Fehlern oder Ungenauigkeiten suchen, die sich (zumindest noch) einschleichen.
Folgende Strategien können bei der Identifizierung von Deepfakes helfen:
Tatsächlich gibt es auch bereits Tools und Websites, die von KI generierte Deepfakes erkennen sollen – diese arbeiten allerdings noch nicht hundertprozentig zuverlässig. Daher ist es an allen Nutzerinnen und Nutzern, genau hinzuschauen, nicht alles zu glauben, was das Internet zu bieten hat und zweifelhafte Informationen oder Inhalte nicht ungefiltert weiterzuverbreiten.
Weitere Infos und Ressourcen zum Thema gibt es hier:
Du glaubst, du kannst Deepfakes auf den ersten Blick entlarven? Dann teste dich und dein Wissen zur KI mit dem WDR Deepfake-Quiz!