Vorsicht Deepfakes: Der Spion im Online-Meeting
Cyberkriminelle könnten Künstliche Intelligenz (KI) nutzen, um in Online-Konferenzen das Aussehen und die Stimme scheinbar vertrauter Personen vorzutäuschen.
Vorsicht Deepfakes
Die Fälschungen sind bereits extrem gut und nur schwer zu erkennen
Den Wolf im Schafspelz gibt es nicht nur im Märchen
Wenn vertrauliche Gespräche im Internet belauscht wurden,
muss kein klassischer Hackerangriff oder eine fehlende Verschlüsselung dahinter
stecken. Es kann auch sein, dass der Spion unerkannt an dem Gespräch
teilgenommen hat. Doch wie kann das sein, wenn doch nur vertraute Gesichter zu
sehen und bekannte Stimmen zu hören waren?
Möglich macht dies KI (Künstliche Intelligenz) in Händen von
Internetkriminellen. Dank KI ist es inzwischen möglich, nicht nur einzelne
Bilder zu fälschen, sondern sogar Videos und Tonaufnahmen. Dies können auch
Live-Videos und Live-Gespräche sein, denn die kriminell genutzte KI verwandelt
das Videobild und den Ton des Spions in Aussehen und Stimme einer anderen
Person, die an dem vertraulichen Online-Meeting hätte teilnehmen dürfen.
Nicht nur eine E-Mail kann im falschen Namen verschickt
werden, auch Telefonate und Online-Meetings können mit gefälschter Identität
geführt werden. Online-Betrug bekommt so ein ganz neues Gesicht.
Identitätsdiebstahl
live und in Farbe
Der neuartige Diebstahl einer Identität wird Deepfake
genannt, täuschend echt wirkende, manipulierte Bild-, Audio- oder auch
Videoaufnahmen, mit Hilfe von Künstlicher Intelligenz erzeugt.
Lange Zeit war es sehr aufwändig, dynamische Medien, wie
Videos oder Audiomitschnitte qualitativ hochwertig zu manipulieren, wie das
Bundesamt für Sicherheit in der Informationstechnik (BSI) erklärt. Durch
Methoden aus dem Bereich der Künstlichen Intelligenz (KI), durch Nutzung von
tiefen neuronalen Netzen (englisch: deep neural networks) ist dies heute jedoch
deutlich einfacher. Der Aufwand für Deepfakes ist für die Kriminellen
entsprechend gering.
Die zunehmende Echtzeitfähigkeit der Deepfakes bewirkt, dass
man in Online-Meetings womöglich nicht mehr sicher sein kann, ob man mit der
realen Person, einem Angreifer oder sogar einem Avatar, also einer künstlichen
Person, spricht.
So lassen sich
Deepfakes am besten erkennen
Auch wenn KI-Verfahren die gefälschten Videos und Stimmen
inzwischen in sehr hoher Qualität erzeugen können, gibt es gewisse Schwächen in
den Deepfakes, die sich nutzen lassen, um Hinweise auf mögliche Fälschungen zu
finden. Das Bundesamt für Verfassungsschutz (BfV) empfiehlt:
- Sorgen Sie für gute (Bild-)Qualität: Je höher die Auflösung beziehungsweise die Bildgröße, desto leichter lassen sich Ungereimtheiten im Bild erkennen. Videos sollten daher nicht auf dem Handy, sondern auf einem größeren Monitor geschaut werden. Gute Farbeinstellungen zeigen ebenfalls Unstimmigkeiten, zum Beispiel im Hautbild.
- Achten Sie auf die Mimik der Person: Natürliche Reaktionen, wie Blinzeln, Stirnrunzeln oder die berühmte „Zornesader“ können von einer KI ebenfalls noch nicht gut dargestellt werden. Ein genauer Blick auf die Augen und Stirn kann eine Fälschung enttarnen. Schauen Sie dafür das Bild verlangsamt, um eventuelle Verzerrungen zu erkennen.
- Prüfen Sie die Quelle: Letztlich hilft natürlich auch immer eine Quellenprüfung oder bei Unsicherheit in Videoschalten die Bitte um Rückruf, um zumindest die Gelegenheit zu bekommen, den Videoanruf oder das Video zu verifizieren.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI)
weist ebenfalls auf Anzeichen für eine Gesichtsmanipulation hin und nennt
sichtbare Artefakte an der Naht rund um das Gesicht im Videobild, verwaschene
Konturen bei Zähnen und Augen, eine begrenzte Mimik und eine unstimmige
Beleuchtung als Warnzeichen.
Leider
lernen kriminelle KI-Verfahren und die Cyberkriminellen schnell, Deepfakes werden
also immer besser. Umso wichtiger ist es, vorsichtig zu sein und nicht allem
einfach Glauben zu schenken, was man scheinbar sieht. Deshalb „Augen auf“ bei
der nächsten Online-Konferenz!
Benötigen Sie dennoch Hilfe? Kein Problem!
Das könnte Sie auch interessieren: