12.05.2023 •

KI ermöglicht Bildmanipulation: Vorsicht vor Deepfakes

Foto und Videomanipulationen können heutzutage ganz leicht mit speziellen, frei verfügbaren Apps produziert werden. Brauchte die Künstliche Intelligenz vor wenigen Jahren noch viele einzelne Bilddateien einer Person, um gute Deepfakes herzustellen, reicht inzwischen ein Foto vom öffentlichen Social Media Account aus, um Deepfakes zu erstellen.

KI ermöglicht Bildmanipulation: Vorsicht vor Deepfakes
Quelle: polizei-beratung.de

Deepfake, was ist das eigentlich?

Deepfakes sind mit Hilfe künstlicher Intelligenz erstellte, realistisch wirkende Medieninhalte. Diese Technik wird genutzt um beispielsweise Gesichter in Videosequenzen durch Gesichter anderer Personen zu ersetzen. Deepfakes wirken wie echte Aufnahmen einer Person - sind aber gefälscht. Einige Deepfake-Methoden funktionieren in Echtzeit.

Es wird immer einfacher Fake-Videos und Fake-Bildmaterial zu erstellen

Durch kostenlose Face-Apps kann das eigene Gesicht oder auch das Gesicht von anderen Personen in Videoclips und bekannte Filmszenen geschnitten werden. Diese Technik wird Face-Swapping genannt. In Sekundenschnelle können diese Clips in überraschend guter Qualität erstellt und verbreitet werden. Bildmanipulation wird durch diese technischen Möglichkeiten auf ein nächstes Level gehoben.

Wofür werden Deepfakes genutzt?

Deepfakes sind zu verschiedenen Zwecken einsetzbar. Die Anwendungsmöglichkeiten reichen von Satire und Unterhaltung, über bewusste Desinformation und Propaganda bis zur gezielten Diskreditierung einzelner Personen. Besonders Fake News können durch diese einfache Art der Bildmanipulation noch realistischer gestaltet werden.

Auch beim Cybermobbing werden Deepfakes angefertigt. So werden die Köpfe von Betroffenen in Porno-Videos "montiert" und per Messenger verbreitet.

Betrug mit Deepfakes

Es gibt bereits Vorfälle, bei denen Betrüger diese Technik in Dating-Apps nutzen. In Online Partnerbörsen versuchen Kriminelle andere Personen dazu zu bringen, erotisches Material mit ihnen zu teilen und diese dann daraufhin damit zu erpressen. Dabei geben sich die Täter als attraktive Männer oder Frauen aus und nutzen Deepfake-Videochats dazu, das Vertrauen von möglichen Opfern zu erlangen. Dieses Vorgehen ist als Sextortion bekannt.

Deepfakes verletzen, juristisch gesehen, ohne entsprechende Berechtigung durch die betroffenen Personen die Persönlichkeitsrechte oder stellen Beleidigungen dar. Mittlerweile existieren Programme, die ebenfalls auf Basis Künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und Fälschungen identifizieren.


Originalquelle: Deepfakes: Video- und Bildmanipulation per App immer leichter (polizei-beratung.de) 

Mehr zu den Themen:

Verwandte Artikel

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Anwendungsbeispiele aus dem Technologieprogramm KI-Innovationswettbewerb des BMWK zeigen, wie KI-basierte Anwendungen das Krisen- und Notfall­management auf ein neues Level heben.

KI-SIGS: SZENARIS im Magazin physiopraxis

KI-SIGS: SZENARIS im Magazin physiopraxis

In der Aprilausgabe der Zeitschrift physiopraxis berichtet SZENARIS über Ergebnisse aus dem vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Projekt „KI-SIGS: Bewegungstraining“.

TÜV-Verband begrüßt Annahme des AI Acts im EU-Rat

TÜV-Verband begrüßt Annahme des AI Acts im EU-Rat

AI Act schützt Gesellschaft vor negativen Auswirkungen von KI-Systemen. Etablierung eines Leitmarkts für sichere KI „Made in Europe“. TÜV-Verband fordert unbürokratische Umsetzung.

:

Photo

Ein Netz für alle (Not-)Fälle

In Katastrophen und anderen Notsituationen kann die zügige und zuverlässige Warnung und die Einsatz-Koordination über Leben und Tod entscheiden. Dies setzt eine stabile Kommunikation voraus.

Photo

Entwickung Cybercrime 2023/2024

Die Bedrohung im Cyberraum ist so hoch wie noch nie. Aber es gibt auch wirksame Präventionsmöglichkeiten und hervorragende Bekämpfungserfolge. All das lässt sich an der aktuellen Entwicklung in…