Dienstag, 27. Februar 2024

Sachen gibt’s, die gibt’s gar nicht

Kamera ab

Must read

Scarlett Lüsser
Scarlett Lüsser
Scarlett Lüsser ist Volontärin in der Online-Redaktion und kümmert sich auch um Social Media und Podcasts. In ihrer Freizeit spielt sie gerne alle Arten von Gesellschaftsspielen.

Deepfakes – vermutlich hat jeder von euch sie schon mal selbst verwendet oder zumindest davon gehört. Denn zu den gefälschten Video-, Bild- und Audioformaten zählen beispielsweise auch diverse Snapchat-Filter. Face-Swap, sich selbst altern lassen oder das Geschlecht tauschen? Alles Deepfake-Techniken. Aber hier hört der Spaß noch nicht auf, auch z.B. ChatGPT ist eine Art von Deepfake. Denn hier werden Textdatenbanken durchforstet und daraus Texte in bestimmten Stilen imitiert – wenn auch mit neuem Inhalt.  

Aber natürlich können Deepfakes mehr, als bloß lustige Filter in diversen Socialmedia-Apps zu ermöglichen oder sinnvolle Texte zu schreiben. Gesichter können imitiert und nachgebildet werden, ebenso wie Stimmen. Damit können lustige Videos entstehen, damit kann aber auch großer Schaden angerichtet werden. Ein relativ aktuelles Beispiel ist hier das im März 2022 aufgetauchte Video auf einer ukrainischen Nachrichtenseite („Ukraine 24“), in welcher der vermeintliche Präsident Wolodymyr Selenskyj die ukrainischen Soldaten zur Kapitulation aufruft. Kurz darauf erschien auch ein Video von Wladimir Putin, in welchem er den Sieg über die Ukraine verkündete. Schnell stellte sich heraus, dass die Nachrichtenseite gehackt worden war und Selenskyj veröffentlichte über seinen offiziellen Instagram-Account ein Gegenstatement, in dem er die russische Seite zum Niederlegen der Waffen auffordert.  

So und auf ähnliche Weise können falsche Informationen verbreitet oder Personen gezielt diskreditiert werden. Gerade für Politik und öffentlichkeitswirksame Personen ist das ein Problem, denn öffentliche Meinungen können manipuliert werden, genau wie politische Prozesse. Social Media verschärft das Problem, weil sich alles rasend schnell verbreiten lässt und gerade Bewegtbilder immer noch als relativ fälschungssicher angesehen werden. Mündliche Statements können in einen anderen Kontext gesetzt werden, es lassen sich aber genauso gut Worte in den Mund einer Person legen, die diese so nie gesagt hat. Auch Handlungen können nachgeahmt werden, die nie passiert sind. Und natürlich lassen sich – gerade von Personen die in der Öffentlichkeit stehen und von denen viel Video- und Bildmaterial existiert – pornographische Inhalte faken.  

Was steckt dahinter? 

Die Bezeichnung „Deepfake“ leitet sich von dem Machine Learning-Begriff „deep learning“, bzw. „deep neuronal network“ ab. Das sind Lernverfahren, mit deren Hilfe Künstliche Intelligenzen trainiert werden. Dazu wird die KI mit Bildern und Videos von der Person, die sie nachahmen soll, gefüttert. Anhand dieser Daten lernt sie dann die Gesichtsmerkmale und Mimik der Person und kann sie imitieren. Ein großer Datensatz mit hochauflösendem Material und vielen verschiedenen Perspektiven sorgt dabei für ein besseres Endergebnis. Auch die sich ständig weiterentwickelnde Technik und Rechenleistung tragen zu immer besseren Deepfakes bei. Stimmen lassen sich auf ähnliche Art nachahmen. So kann entweder ein Stimmfilter über das Gesprochene einer anderen Person gelegt oder mittels Text-to-Speech-Verfahren vertont werden.  

Das hat aber auch Grenzen 

Es gibt aber, zumindest in der aktuellen Zeit, in den meisten Fällen noch gute Hinweise, die auf ein Fakevideo hindeuten. Bei einem Gesichtertausch sind beispielsweise die Ränder oft unscharf oder passen nicht richtig zusammen. Schatten fehlen oder Hauttöne und -texturen stimmen nicht und verursachen unsaubere Übergänge. Normal scharfe Konturen von Zähnen oder Augen können auch verwaschen dargestellt sein, weil die KI selten lange Aufnahmen von geöffneten Mündern hat. Auch begrenzte Mimikmöglichkeiten oder unstimmige Lichtverhältnisse können ein klarer Hinweis auf Fakedarstellungen sein. Diese kleinen „Schönheitsfehler“ hängen meist mit dem Datensatz zusammen, auf dem die Darstellung basiert. Auch die Ähnlichkeit der zu tauschenden Personen spielt eine Rolle.  

Im Bereich Audio gibt es ebenfalls Grenzen, an die das Programm stößt. Denn ein Sprachprogramm hat auch immer eine zu Grunde liegende Datenbank an Wörtern und Aussprachen, die meist in einer bestimmten Sprache gehalten sind. Nicht umsonst sprechen manche Übersetzer Wörter aus anderen Sprachen komisch aus, wenn man sie beispielsweise in der deutschen Sprachausgabe anhört. Daher kann es zu falschen Aussprachen von z.B. eingedeutschten Wörtern kommen. Auch Dialekte und Akzente können deshalb nur schwer nachgebildet werden. Außerdem kommt bei einer computergenerierten Stimme häufig ein blecherner Klang hinzu, ebenso wie eine monotone Aussprache, was die Betonung angeht.  

KI vs. KI? 

Natürlich gibt es auch schon Programme, die darauf trainiert sind, solche Fakes zu erkennen. Diese sind allerdings mit derselben Methode trainiert, wie die Fake-erstellende KI. Und genauso wie das ausführende Programm hängt ihre Zuverlässigkeit von dem Basisdatensatz ab, mit dem das Training erfolgt ist. Darum sind sie bei gängigen Videos und Bildern recht zuverlässig, können aber genauso leicht ausgetrickst oder umgangen werden. Ein für den Menschen nicht wahrnehmbares Bildrauschen könnte schon ausreichen, um das filternde Programm hinters Licht zu führen.  

Darum sollte man sich nicht auf solche Programme verlassen und stattdessen mit gesundem Menschenverstand hinterfragen, ob ein fragwürdiges Video wirklich echt sein kann. Die veröffentlichende Quelle ist beispielsweise ein Indiz. Auch die Berichterstattung von seriösen Quellen wie Nachrichtenseiten und Ähnlichem kann ein Hinweis sein. Taucht z.B. ein brisantes Video von einer hochrangigen Person auf, worüber aber keine seriöse Quelle berichtet, kann es sich auch gut um einen Fake handeln. Auch auf die genannten Probleme von Deepfake-Programmen zu achten hilft – am besten auf einem möglichst großen Bildschirm mit guter Auflösung. Auf dem Monitorbildschirm vom PC lassen sich besser Unstimmigkeiten entdecken als auf dem kleinen Handydisplay. Und auch hörbare Unstimmigkeiten lassen sich mit besseren Lautsprechern leichter erkennen.  

Grundsätzlich hilft es aber, über die Existenz und Möglichkeiten von Deepfakes Bescheid zu wissen, denn nur so kann man überhaupt erst Ausgangsmaterial anzweifeln. Wenn ihr mehr über die Verfahren und die Möglichkeiten von solchen Fakevideos erfahren wollt, verlinken wir euch hier eine Informationsseite des Bundesamts für Sicherheit und Informationstechnik.    

- Werbung -

More articles

Latest article