Visuelle KI Inhalte: die Lage spitzt sich weiter zu
Es gibt Menschen, die ein gutes Talent haben, computergenerierte Inhalte zu erkennen. Das kann Spezialeffekte in modernen Hollywoodproduktionen (CGI, also Computer Generated Images) genauso betreffen wie die zahlreichen KI generierten Videos, welche die sozialen Medien derzeit überschwemmen. Die Kunst des Erkennens spielt freilich besonders dann eine Rolle, wenn die Videos nicht als KI gekennzeichnet sind und das Ziel der Täuschung, des Betrugs oder der Propaganda verfolgen. Kürzlich machte ein Video die Runde, das einen weinenden, zwangsrekrutierten ukrainischen Soldaten zeigen sollte. Das Video hatte den typischen geglätteten, für manche eindeutig erkennbaren unnatürlichen KI Look. Zusätzlich konnte es zu einem Profil zurückverfolgt werden, das schon für KI Inhalte bekannt ist und sogar bei einigen Videos den entsprechenden Stempel der jeweiligen Software noch sichtbar hatte. Ein weiteres Indiz, dass es sich bei dem Video um ein Propagandamachwerk handelte, war, dass das angegebene Alter des angeblichen Rekruten zu jung war, um überhaupt zwangsrekrutiert zu werden. Auch Hinweise wie ein falsch aufgebauter Helm halfen bei der Einordnung.
Nicht immer stehen so viele Informationen zur Verfügung, um ein KI generiertes Video als solches zu entlarven. Zwar ist die Qualität vieler Videos nach wie vor mangelhaft, man kennt das Problem mit den zwölf Finger Händen oder Personen, die ihre Körper auf unmenschliche Weise verrenken können, wie es nicht einmal Olympia Gymnasiasten schaffen, doch diese Fehler werden künftig massiv reduziert werden. Zahlreiche Forschungsarbeiten zeigen, dass moderne Bildmodelle heute bereits Bewegungsunschärfe, Lichtbrechungen und Materialeigenschaften nahezu fotorealistisch simulieren können. Gleichzeitig belegen Studien, dass es zunehmend schwieriger wird, KI generierte Medien von echten zu unterscheiden, selbst mit professionellen forensischen Werkzeugen.
Eine weitere Herausforderung wird bei der Identifikation von KI Videos künftig vermehrt eine Rolle spielen. Immer wieder kommt KI auch bei der Bearbeitung, etwa zur Qualitätsverbesserung realer Inhalte, zum Einsatz und kann so zu einem unnatürlichen KI Look beitragen, obwohl es sich ursprünglich um reale Aufnahmen gehandelt hat. Wir kennen diesen Effekt von Fotos, bei denen die KI Details hineininterpretiert, wo eigentlich keine sind. Ein seit Jahren bekanntes Beispiel ist die Mondoptimierung von Samsung Smartphone Aufnahmen des Mondes. Die KI optimiert Bilder anhand von Informationen, die im Originalbild gar nicht enthalten sind. Ähnliche Effekte werden inzwischen auch in Video Editing Software beobachtet, die KI gestützte Rauschunterdrückung oder Schärfung nutzt und dabei reale Strukturen verfälschen kann. Forensiklabore berichten, dass solche hybriden Bearbeitungen die Zuordnung zu realem oder generiertem Material erheblich erschweren und neue Analyseverfahren notwendig machen.
Das bedeutet, dass wir immer öfter mit Hybrid Fällen konfrontiert sein werden, sozusagen fälschlich als Fälschung erkannte Videos und natürlich auch Fotos. Gerade KI generierte Bilder werden immer wieder auf Social Media eingesetzt, um künftige Propagandaseiten anwachsen zu lassen, aber auch um Betrugsopfer zu identifizieren. Nicht nur traurige Gesichter von Kindern und jungen Frauen, denen man angeblich nicht zum Geburtstag gratulieren will, scheinbar aufwendig geschnitzte Holzfiguren, die kein Like kriegen würden, sondern auch angebliche Kriegsinvalide werden auf diesen Fotos gezeigt. Internationale Sicherheitsbehörden warnen mittlerweile ausdrücklich, dass Deepfakes eine wachsende Rolle bei Betrugsmaschen und Online Erpressung spielen. Wichtig ist hierbei zu wissen, dass diese kriminellen Aktivitäten, egal ob von staatlichen Akteuren selbst, von zwischengelagerten Proxies oder von unabhängigen Kriminellen, innerhalb autoritärer Regime meist so lange geduldet sind, wie sie verfeindete Staaten, etwa Demokratien in Europa, betreffen. Auch wissenschaftliche Institutionen weisen darauf hin, dass generative KI zunehmend verstärkt in Einflusskampagnen eingebettet wird, was demokratische Prozesse gefährden kann.
Quellen:
1 Samsung „Mondoptimierung“ Analyse
https://www.derstandard.at/story/2000144573115
2 Europol: Deepfake-bezogene Online-Betrugswarnungen (IOCTA / Spotlight Report)
https://www.europol.europa.eu/publication-events/main-reports/spotlight-report-online-fraud-iocta-2023
3 ÖAW Institut für Technikfolgenabschätzung der Österreichischen Akademie der Wissenschaften: KI und demokratische Risiken
https://www.oeaw.ac.at/ita/detail/news/generative-ki-neue-technologie-mit-chancen-und-gefahren-fuer-die-demokratie
