meinbezirks.demeinbezirks.de
    Was ist heiß

    So Download Pinterest Videos: Eine Kurzanleitung für Marken im Jahr 2025

    1 Juli 2025

    Twitter Trends: Was sind sie und wie nutzt man sie?

    1 Juli 2025

    TikTok Live Studio: Ein umfassender Leitfaden

    1 Juli 2025
    Facebook Twitter Instagram
    meinbezirks.demeinbezirks.de
    • Lebensstil
    • Nachrichten
    • Technik
    • Gesundheit
    • Wie zu
    • Kontakt uns
    Facebook Twitter Instagram
    meinbezirks.demeinbezirks.de
    Home » Was sind Deepfakes? Wie künstliche KI-Audio- und Videoaufnahmen unsere Wahrnehmung der Realität verzerren
    Uncategorised

    Was sind Deepfakes? Wie künstliche KI-Audio- und Videoaufnahmen unsere Wahrnehmung der Realität verzerren

    WalterBy Walter22 September 2024Updated:22 September 2024Keine Kommentare9 Mins Read
    deepfakes
    deepfakes
    • Deepfakes nutzen KI, um in Videos oder Audios das Bild einer Person durch das einer anderen zu ersetzen. 
    • Es gibt Bedenken, dass Deepfakes zur Erstellung gefälschter Nachrichten und irreführender Videos verwendet werden könnten.
    • Sie können Deepfakes erkennen, indem Sie eine umgekehrte Bildsuche durchführen oder nachforschen, wer das Bild gepostet hat.

    Computer werden immer besser darin, die Realität zu simulieren. Medien, die von künstlicher Intelligenz (KI) erzeugt werden, machen Schlagzeilen – vor allem Videos, die jemanden nachahmen und es so aussehen lassen, als würde die Person etwas sagen oder tun, was sie nicht tut. 

    Ein Twitch-Streamer wurde dabei erwischt, wie er auf einer Website mit Hilfe künstlicher Intelligenz Pornografie seiner Mitschüler erstellte. Eine Gruppe von New Yorker Schülern drehte ein Video, in dem ihr Rektor rassistische Bemerkungen machte und Schüler bedrohte. In Venezuela werden die erstellten Videos zur Verbreitung politischer Propaganda eingesetzt . 

    In allen drei Fällen wurden KI-generierte Videos mit dem Ziel erstellt, Sie davon zu überzeugen, dass jemand etwas getan hat, was er in Wirklichkeit nie getan hat. Für diese Art von Inhalten gibt es ein Wort: Deepfakes.

    Was ist ein Deepfake?

    Deepfakes nutzen KI, um völlig neue Videos oder Audiodateien zu generieren, mit dem Ziel, etwas darzustellen, was in Wirklichkeit nicht vorgekommen ist. 

    Der Begriff „Deepfake“ leitet sich von der zugrundeliegenden Technologie ab – Deep-Learning-Algorithmen – die sich selbst beibringen, Probleme mit großen Datensätzen zu lösen und zum Erstellen gefälschter Inhalte über echte Menschen verwendet werden können. 

    „Ein Deepfake wäre Filmmaterial, das von einem Computer generiert wird, der anhand zahlloser vorhandener Bilder trainiert wurde“, sagte Cristina López , eine leitende Analystin bei Graphika, einem Unternehmen, das den Informationsfluss in digitalen Netzwerken erforscht.

    Wie unterscheiden sich Deepfakes von anderen manipulierten Medien?

    Deepfakes sind nicht einfach irgendwelche gefälschten oder irreführenden Bilder. Der von der KI generierte Papst in einer Pufferjacke oder die gefälschten Szenen von Donald Trumps Verhaftung , die kurz vor seiner Anklageerhebung im Umlauf waren, sind zwar von der KI generiert, aber sie sind keine Deepfakes. (Bilder wie diese werden, wenn sie mit irreführenden Informationen kombiniert werden, allgemein als „Shallowfakes“ bezeichnet.) Was einen Deepfake von anderen unterscheidet, ist das Element der menschlichen Eingabe. 

    Bei Deepfakes kann der Benutzer erst ganz am Ende des Generierungsprozesses entscheiden, ob das erstellte Ergebnis seinen Wünschen entspricht oder nicht. Abgesehen davon, dass er die Trainingsdaten anpassen und im Nachhinein „Ja“ oder „Nein“ zu den vom Computer generierten Ergebnissen sagen kann, hat er keinen Einfluss darauf, wie der Computer das Ergebnis erstellt.

    Wie entstehen Deepfakes? 

    Es gibt mehrere Methoden zum Erstellen von Deepfakes, aber die gängigste basiert auf der Verwendung tiefer neuronaler Netzwerke, die eine Technik zum Austauschen von Gesichtern verwenden. Sie benötigen zunächst ein Zielvideo als Grundlage für den Deepfake und dann eine Sammlung von Videoclips der Person, die Sie in das Ziel einfügen möchten. 

    Die Videos können völlig unabhängig voneinander sein; das Ziel könnte beispielsweise ein Clip aus einem Hollywood-Film sein und die Videos der Person, die Sie in den Film einfügen möchten, könnten zufällig ausgewählte Clips sein, die Sie von YouTube heruntergeladen haben. 

    Das Programm errät, wie eine Person aus verschiedenen Winkeln und unter verschiedenen Bedingungen aussieht, und ordnet diese Person dann durch die Suche nach gemeinsamen Merkmalen der anderen Person im Zielvideo zu. 

    Hinzu kommt eine weitere Art des maschinellen Lernens, die sogenannten Generative Adversarial Networks (GANs), die etwaige Fehler im Deepfake innerhalb mehrerer Runden erkennen und beheben, sodass es für Deepfake-Detektoren schwieriger wird, sie zu entschlüsseln. 

    Obwohl der Prozess komplex ist, ist die Software ziemlich zugänglich. Mehrere Apps machen das Erstellen von Deepfakes selbst für Anfänger einfach – wie die chinesische App Zao, DeepFace Lab, FakeApp und Face Swap – und eine große Menge an Deepfake-Software findet sich auf GitHub, einer Open-Source-Entwickler-Community. 

    Wie werden Deepfakes eingesetzt?

    Deepfake-Technologie wurde in der Vergangenheit für illegale Zwecke verwendet, unter anderem zur Generierung nicht einvernehmlicher Pornografie. Das FBI veröffentlichte im Juni 2023 eine öffentliche Bekanntmachung, in der es die Öffentlichkeit vor den Gefahren generativer KI warnte und darauf hinwies, dass diese für die „Erstellung expliziter Inhalte“, „Sextortion“ und „Belästigung“ verwendet wird.

    Im Jahr 2017 erstellte ein Reddit-Benutzer namens „Deepfakes“ ein Forum für Pornos, in dem Schauspieler mit vertauschten Gesichtern auftraten. Seitdem sind Pornos (insbesondere Rachepornos) immer wieder in die Schlagzeilen geraten und haben dem Ruf von Prominenten und prominenten Persönlichkeiten schwer geschadet. Laut einem Bericht von Deeptrace machten Pornografie 96 % der im Jahr 2019 online gefundenen Deepfake-Videos aus.

    Deepfakes wurden auch für nicht-sexuelle kriminelle Aktivitäten verwendet. So wurde beispielsweise in einem Fall im Jahr 2023 mithilfe von Deepfake-Technologie die Stimme des Kindes einer Frau nachgeahmt, um sie zu bedrohen und zu erpressen.

    Auch in der Politik werden Deepfakes eingesetzt. So veröffentlichte 2018 eine belgische Partei ein Video von Donald Trump, in dem er eine Rede hält, in der er Belgien auffordert, aus dem Pariser Klimaabkommen auszusteigen. Trump hat diese Rede allerdings nie gehalten – es handelte sich um ein Deepfake. Dies war nicht der erste Einsatz eines Deepfakes zur Erstellung irreführender Videos, und technisch versierte Politikexperten bereiten sich auf eine zukünftige Welle von Fake News vor, die überzeugend realistische Deepfakes enthalten werden. 

    Aber auch Journalisten, Menschenrechtsgruppen und Medientechnologen haben positive Anwendungen für die Technologie gefunden. So wurde beispielsweise in der HBO-Dokumentation „ Welcome to Chechnya “ aus dem Jahr 2020 Deepfake-Technologie eingesetzt, um die Identität russischer LGBTQ-Flüchtlinge zu verbergen, deren Leben in Gefahr war, und gleichzeitig ihre Geschichten zu erzählen.

    WITNESS, eine Organisation, die sich mit dem Einsatz der Medien zur Verteidigung der Menschenrechte beschäftigt, äußerte sich optimistisch hinsichtlich der Technologie, wenn diese auf diese Weise eingesetzt wird, erkannte jedoch auch die digitalen Bedrohungen.

    „Ein Teil unserer Arbeit besteht darin, den positiven Nutzen dieser Technologie zu erforschen, vom Schutz von Menschen wie Aktivisten auf Video über Advocacy-Ansätze bis hin zu politischer Satire“, sagt Shirin Anlen , Medientechnologin bei WITNESS. 

    Für anlen und WITNESS ist die Technologie nichts, wovor man Angst haben muss. Vielmehr sollte man sie als Werkzeug betrachten. „Sie baut auf unserer langjährigen Beziehung zu audiovisuellen Medien auf. Wir haben bereits Audio manipuliert. Wir haben bereits visuelle Medien auf unterschiedliche Weise manipuliert“, sagte anlen. 

    Experten wie Anlen und López sind überzeugt, dass der beste Umgang der Öffentlichkeit mit Deepfakes nicht darin besteht, in Panik zu verfallen, sondern sich über die Technologie und ihre Möglichkeiten zu informieren. 

    So erkennen Sie einen Deepfake

    Es gibt eine Handvoll Indikatoren, die Deepfakes verraten:

    • Erscheinen Details verschwommen oder undeutlich? Achten Sie auf Probleme mit Haut oder Haaren oder auf Gesichter, die verschwommener erscheinen als die Umgebung, in der sie sich befinden. Der Fokus könnte unnatürlich weich wirken. 
    • Sieht die Beleuchtung unnatürlich aus? Deepfake-Algorithmen behalten häufig die Beleuchtung der Clips bei, die als Modelle für das gefälschte Video verwendet wurden, was jedoch nicht mit der Beleuchtung im Zielvideo übereinstimmt. 
    • Passen die Worte oder Geräusche nicht zum Bildmaterial? Das Audio scheint möglicherweise nicht zur Person zu passen, insbesondere wenn das Video gefälscht ist, das Originalaudio jedoch nicht so sorgfältig manipuliert wurde. 
    • Scheint die Quelle zuverlässig zu sein? Eine Technik, die Journalisten und Forscher häufig verwenden, um die wahre Quelle eines Bildes zu überprüfen, und die Sie jetzt sofort anwenden können, ist die umgekehrte Bildsuche . Sie sollten auch prüfen, wer das Bild gepostet hat, wo es gepostet wurde und ob es für den Poster Sinn ergibt, dies zu tun.

    Mit Technologie gegen Deepfakes

    Mit der Weiterentwicklung der Technologie wird es wahrscheinlich immer schwieriger, die Unterschiede zwischen echten und gefälschten Inhalten zu erkennen. Aus diesem Grund glauben Experten wie anlen, dass die Last, Deepfakes in freier Wildbahn zu erkennen, nicht auf Einzelpersonen liegen sollte. 

    „Die Verantwortung sollte bei den Entwicklern, den Werkzeugherstellern und den Technologieunternehmen liegen, unsichtbare Wasserzeichen zu entwickeln und die Quelle des Bildes anzuzeigen“, sagte Anlen. Und eine Reihe von Startup-Unternehmen entwickeln Methoden zum Erkennen von Deepfakes. 

    Sensity hat beispielsweise eine Erkennungsplattform entwickelt, die einem Antivirus für Deepfakes ähnelt und Benutzer per E-Mail benachrichtigt, wenn sie etwas ansehen, das verräterische Fingerabdrücke von KI-generierten Medien aufweist. Sensity verwendet dieselben Deep-Learning-Prozesse, die auch zur Erstellung gefälschter Videos verwendet werden. 

    Operation Minerva verfolgt einen direkteren Ansatz zur Erkennung von Deepfakes. Der Algorithmus dieses Unternehmens vergleicht potenzielle Deepfakes mit bekannten Videos, die bereits „digital mit Fingerabdrücken versehen“ wurden. So kann er beispielsweise Beispiele von Rachepornos erkennen, indem er erkennt, dass das Deepfake-Video lediglich eine modifizierte Version eines vorhandenen Videos ist, das Operation Minerva bereits katalogisiert hat. 

    Trotz dieser Fortschritte sagte Nasir Memon , Professor für Informatik und Ingenieurwissenschaften an der NYU, es habe keine Bemühungen gegeben, Deepfakes in großem Umfang zu bekämpfen, und auch keine Lösung werde ein Allheilmittel sein, um die Verbreitung schädlicher Deepfakes zu stoppen.

    „Ich denke, die Lösung liegt insgesamt nicht in der Technologie, sondern in Bildung, Bewusstsein, den richtigen Geschäftsmodellen, Anreizen, Richtlinien und Gesetzen“, sagte Memon. 

    Ein wachsendes Problem ist die Verwendung von Deepfakes in einer Live-Umgebung, um die eigene Identität im Moment zu verschleiern, beispielsweise bei einem Telefongespräch oder einem Zoom-Meeting. Laut Memon kann die Gefahr, dass jemand eine falsche Identität verwendet, in zahlreichen Situationen auftreten, von Vorstellungsgesprächen über Fernprüfungen an Hochschulen bis hin zu Visumsanträgen. Sogar Insider-Reporter mussten sich mit KI-generierten Betrügereien auseinandersetzen, die sich als Quellen ausgaben . 

    „Das Problem bei der Erkennung ist, dass die Verantwortung beim Verteidiger liegt“, sagte Memon. „Ich muss jedes einzelne Bild auf jede erdenkliche Weise analysieren. Aber in der Sicherheit möchte man es genau umgekehrt machen.“ Im Idealfall würde man Technologien entwickeln, um auch diese Art von Live-Deepfakes zu erkennen. 

    Dennoch erwartet Memon nicht, dass dieser Ansatz das Ende der Deepfake-Frage bedeutet. 

    „Nichts wird das Problem vollständig lösen. Die Authentizität muss immer in der Gesellschaft geprüft werden“, sagte er. „Ziehen Sie keine voreiligen Schlüsse, wenn Sie jetzt ein Bild sehen. Schauen Sie sich die Quelle an. Warten Sie, bis Sie bestätigende Beweise aus zuverlässigen Quellen haben.“

    Share. Facebook Twitter Pinterest LinkedIn
    Walter
    • Website

    Die Wahl des Herausgebers

    So Download Pinterest Videos: Eine Kurzanleitung für Marken im Jahr 2025

    1 Juli 2025

    Twitter Trends: Was sind sie und wie nutzt man sie?

    1 Juli 2025

    TikTok Live Studio: Ein umfassender Leitfaden

    1 Juli 2025

    TikTok Viewer: Die besten Apps und Websites zum anonymen Ansehen von Videos im Jahr 2025

    1 Juli 2025
    Über uns
    Über uns

    Meinbezirks ist die führende Online-Publikation für Musiknachrichten, Unterhaltung, Filme, Prominente, Mode, Wirtschaft, Technologie und andere Online-Artikel. Gegründet im Jahr 2023 und geleitet von einem Team engagierter Freiwilliger, die Musik lieben.

    Unsere Auswahl

    So Download Pinterest Videos: Eine Kurzanleitung für Marken im Jahr 2025

    1 Juli 2025

    Twitter Trends: Was sind sie und wie nutzt man sie?

    1 Juli 2025

    TikTok Live Studio: Ein umfassender Leitfaden

    1 Juli 2025
    Spitze Bewertungen
    Urheberrechte © 2023 meinbezirks Alle Rechte vorbehalten.
    • Datenschutz Bestimmungen
    • Kontakt uns
    • Über uns

    Type above and press Enter to search. Press Esc to cancel.