12.05.2023 •

KI ermöglicht Bildmanipulation: Vorsicht vor Deepfakes

Foto und Videomanipulationen können heutzutage ganz leicht mit speziellen, frei verfügbaren Apps produziert werden. Brauchte die Künstliche Intelligenz vor wenigen Jahren noch viele einzelne Bilddateien einer Person, um gute Deepfakes herzustellen, reicht inzwischen ein Foto vom öffentlichen Social Media Account aus, um Deepfakes zu erstellen.

KI ermöglicht Bildmanipulation: Vorsicht vor Deepfakes
Quelle: polizei-beratung.de

Deepfake, was ist das eigentlich?

Deepfakes sind mit Hilfe künstlicher Intelligenz erstellte, realistisch wirkende Medieninhalte. Diese Technik wird genutzt um beispielsweise Gesichter in Videosequenzen durch Gesichter anderer Personen zu ersetzen. Deepfakes wirken wie echte Aufnahmen einer Person - sind aber gefälscht. Einige Deepfake-Methoden funktionieren in Echtzeit.

Es wird immer einfacher Fake-Videos und Fake-Bildmaterial zu erstellen

Durch kostenlose Face-Apps kann das eigene Gesicht oder auch das Gesicht von anderen Personen in Videoclips und bekannte Filmszenen geschnitten werden. Diese Technik wird Face-Swapping genannt. In Sekundenschnelle können diese Clips in überraschend guter Qualität erstellt und verbreitet werden. Bildmanipulation wird durch diese technischen Möglichkeiten auf ein nächstes Level gehoben.

Wofür werden Deepfakes genutzt?

Deepfakes sind zu verschiedenen Zwecken einsetzbar. Die Anwendungsmöglichkeiten reichen von Satire und Unterhaltung, über bewusste Desinformation und Propaganda bis zur gezielten Diskreditierung einzelner Personen. Besonders Fake News können durch diese einfache Art der Bildmanipulation noch realistischer gestaltet werden.

Auch beim Cybermobbing werden Deepfakes angefertigt. So werden die Köpfe von Betroffenen in Porno-Videos "montiert" und per Messenger verbreitet.

Betrug mit Deepfakes

Es gibt bereits Vorfälle, bei denen Betrüger diese Technik in Dating-Apps nutzen. In Online Partnerbörsen versuchen Kriminelle andere Personen dazu zu bringen, erotisches Material mit ihnen zu teilen und diese dann daraufhin damit zu erpressen. Dabei geben sich die Täter als attraktive Männer oder Frauen aus und nutzen Deepfake-Videochats dazu, das Vertrauen von möglichen Opfern zu erlangen. Dieses Vorgehen ist als Sextortion bekannt.

Deepfakes verletzen, juristisch gesehen, ohne entsprechende Berechtigung durch die betroffenen Personen die Persönlichkeitsrechte oder stellen Beleidigungen dar. Mittlerweile existieren Programme, die ebenfalls auf Basis Künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und Fälschungen identifizieren.


Originalquelle: Deepfakes: Video- und Bildmanipulation per App immer leichter (polizei-beratung.de) 

Mehr zu den Themen:

Verwandte Artikel

NEUHEIT: GETAC ERWEITERT SEIN ANGEBOT AN ANDROID-GERÄTEN MIT DEM KI-FÄHIGEN, ROBUSTEN TABLET ZX80

NEUHEIT: GETAC ERWEITERT SEIN ANGEBOT AN ANDROID-GERÄTEN MIT DEM KI-FÄHIGEN, ROBUSTEN TABLET ZX80

Neues vollrobustes 8-Zoll-Tablet ZX80 verbindet kompaktes Design und individuell konfigurierbare Spezifikationen mit der Flexibilität von Android für maximale Produktivität in rauen Umgebungen und im harten Außeneinsatz.

Künstliche Intelligenz

Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien unserer Zeit. Generative KI wie ChatGPT und Co. haben den Stand der Technik erstmals einer breiten Öffentlichkeit demonstriert und KI in den Fokus der Öffentlichkeit gerückt.

„AI Act“ sendet klares Signal – Künstliche Intelligenz muss sicher sein

„AI Act“ sendet klares Signal – Künstliche Intelligenz muss sicher sein

TÜV-Verband begrüßt Einigung bei Trilog-Verhandlungen. Europa als führendes Ökosystem für sichere und vertrauenswürdige KI. Risikobasierter Ansatz erhöht die Sicherheit und schützt Innovationen.

: