KI wird mit riesigen Mengen an Texten, Bildern, Sprache oder anderen Daten trainiert. Dabei „lernt“ sie Muster zu erkennen und daraus Antworten oder Vorhersagen abzuleiten. Dafür gibt es verschiedene Methoden:
Die Daten stammen aus vielen unterschiedlichen Quellen, etwa aus dem Internet, von sozialen Netzwerken, aus Datenbanken oder auch direkt von Nutzerinnen und Nutzern. Das Problem ist: Außenstehende wissen nicht genau, welche Quellen genutzt wurden. Darum spricht man von einer „Black Box“. Richtiges und Falsches können vermischt sein.
Entwicklerinnen und Entwickler entscheiden, mit welchen Daten die KI gefüttert wird. Dadurch können Fehler oder Vorurteile übernommen werden. Außerdem spielen wirtschaftliche oder politische Interessen eine Rolle. Deshalb sollte nachvollziehbar sein, welche Unternehmen oder Organisationen hinter einer KI stehen und woher die Daten kommen.
Das geschieht auf drei Wegen:
Dadurch können falsche Informationen stärker wirken als zuvor.
Das eigene Wissen bleibt wichtig: Wer sich in einem Thema gut auskennt, erkennt schneller, ob KI Unsinn erzählt. KI kann ein nützliches Werkzeug sein, ersetzt aber keine menschliche Bildung oder kritisches Denken.
Aktuell existiert nur schwache KI, also Systeme, die spezialisierte Aufgaben erfüllen, etwa beim Schach, Übersetzungen oder personalisierten Empfehlungen. Eine starke KI, die wie ein Mensch denkt, versteht und kreativ kombiniert, existiert nicht. Sie bleibt eine Vision der Zukunft. Bis dahin wird KI stets von Daten abhängig sein.
Die Europäische Union hat 2024 den AI Act verabschiedet. Dieses Gesetz soll den Nutzen von KI fördern, zugleich aber Gefahren verhindern.
Tipps zum Erkennen von Desinformation findest du in unserer Wissensdatenbank: