YouTube ist das Tor zu fast allen Videoinhalten, die Sie sich vorstellen können. Von Zusammenstellungen von Händchen haltenden Ottern bis hin zu veralteten DIY-Dokumentarfilmen, in denen darüber spekuliert wird, ob Michael Jackson tot ist oder nicht – es gibt nur sehr wenige Themen, die Sie auf der Video-Sharing-Plattform nicht erkunden können. Und obwohl der Zugang zu solchen Inhalten zweifellos das Leben aller einfacher gemacht hat, hat der Aufstieg von YouTube auch zur raschen Verbreitung von Verschwörungstheorien beigetragen . Zu den bekanntesten Verschwörungstheorien gehört Frazzledrip, eine Theorie, die so groß wurde, dass sie sogar Sundar Pichai, den CEO von Google, in Schwierigkeiten brachte. Worum geht es in der Frazzledrip-Verschwörungstheorie und wie hat sie YouTube erobert ?
Was ist Frazzledrip?
Die Verschwörungstheoretiker hinter Frazzledrip glauben, dass Hillary Clinton und die ehemalige Clinton-Beraterin Huma Abedin dabei gefilmt wurden, wie sie einem Kind das Gesicht abrissen und es als Maske trugen, bevor sie bei einem satanischen Opferritual das Blut des Kindes tranken. Angeblich wurde das Video von Hillary Clinton später auf der Festplatte von Abedins ehemaligem Ehemann Anthony Weiner unter dem Codenamen „Frazzledrip“ gefunden.
Frazzledrip ist nur eine Ergänzung zu zwei anderen beliebten Verschwörungstheorien: Pizzagate und QAnon . QAnon-Anhänger glauben, dass eine Gruppe satanverehrender Demokraten, Hollywood-Stars und Milliardäre die Welt regiert, während sie sich gleichzeitig mit Pädophilie, Menschenhandel und der Gewinnung einer angeblich lebensverlängernden Chemikalie aus dem Blut misshandelter Kinder beschäftigt. Zu dieser satanischen Clique gehört natürlich auch Hillary Clinton.
QAnon basiert tatsächlich alle seine Überzeugungen auf bereits etablierten Verschwörungstheorien, von denen einige neu und einige Jahrtausende alt sind. Eine davon ist Pizzagate, die Verschwörungstheorie, die während des US-Präsidentschaftswahlkampfs 2016 viral ging, als rechte Nachrichtenagenturen und Influencer die Idee verbreiteten, dass in den gestohlenen E-Mails von Clintons Wahlkampfmanager John Podesta Hinweise auf Essen und ein Pizzarestaurant in Washington DC enthalten seien waren eigentlich ein Geheimcode für einen Kinderhändlerring.
Während viele Politiker eine fragwürdige Vergangenheit aufweisen, insbesondere wenn es um Pädophilie geht, ist anzumerken, dass die drei oben genannten Verschwörungstheorien völlig unbegründet sind. Es gibt kein Video, in dem Hillary Clinton dabei zu sehen ist, wie sie einem Kind das Gesicht abreißt oder Blut trinkt, einfach weil so etwas noch nie passiert ist. Dennoch scheinen mehrere Verschwörungstheorien der Trump-Ära zu glauben, dass Hillary Clinton eine heimliche Pädophilie und Mörderin ist. Und bis Ende 2018 hatten Frazzledrip-Videos YouTube vollständig übernommen. Also was ist passiert?
Der CEO von Google wurde vom Justizausschuss des Repräsentantenhauses zu Pizzagate und Frazzledrip befragt
Jeden Tag werden auf YouTube Inhalte im Wert von mehr als einer Milliarde Stunden angesehen. Laut Algotransparency , einer Website, die versucht zu verfolgen, „welche Videos der Empfehlungsalgorithmus von YouTube am häufigsten empfiehlt“, stammen etwa 70 Prozent dieser Aufrufe aus YouTube-Empfehlungen.
Hätten Sie Anfang 2018 „Frazzledrip“ in die Suchleiste von YouTube eingegeben, hätten Sie Tausende Videos zu Hillary Clintons mutmaßlichem Mord und Kinderhandel gefunden. Auch frühere Nutzer von Gab.ai , 4chan und 8chan strömten zu YouTube, um ihre Ansichten mit Nutzern dieser Websites zu teilen, die häufiger als auf jede andere Website auf YouTube verlinkten – laut einer Studie von Data and Society und tausende Male am Tag vom Network Contagion Research Institute, die beide die Verbreitung von Hassreden verfolgen.
Nun ist es zwar immer noch möglich, wenn Sie bereit sind, sich etwas Mühe zu geben, aber es ist auf der Plattform schwieriger geworden, Videos zu dieser speziellen Verschwörungstheorie zu finden. Denn am 11. Dezember 2018, als Googles CEO Sundar Pichai vor Abgeordneten in Washington zu verschiedenen Themen aussagte, fragte ihn ein Abgeordneter, wie die Algorithmen von YouTube genutzt werden könnten, um Verschwörungstheorien voranzutreiben, und betonte, wie dringend dieses Problem sei geregelt.
Der Kongressabgeordnete Jamie Raskin sagte: „Der Punkt, an dem es zu einer Angelegenheit von ernsthaftem öffentlichem Interesse wird, ist, wenn Ihr Kommunikationsmittel zur Förderung von Propaganda genutzt wird, die zu gewalttätigen Ereignissen führt.“
Raskin fügte hinzu: „Ist Ihre Grundposition, dass [Frazzledrip] etwas ist, gegen das Sie etwas unternehmen möchten, aber im Grunde gibt es nur eine Lawine solchen Materials und es gibt wirklich nichts, was getan werden kann, und es sollte Käufer oder Verbraucher aufpassen.“ Passen Sie auf, wenn Sie auf YouTube gehen?“
Mit anderen Worten: Raskin brachte Licht auf die Tatsache, dass YouTube, das Google 2006 für 1,65 Milliarden US-Dollar kaufte, ein großes Problem mit der Verschwörungstheorie hatte – und technisch gesehen auch heute noch besteht , nur nicht so stark mit Frazzledrip. Und damals sah es so aus, als ob weder der Kongress noch YouTube das Problem auch nur annähernd lösen würden.
Der Algorithmus von YouTube hatte ein Extremismusproblem
Die Inhaltsalgorithmen von YouTube bestimmen, welche Videos in Ihren Suchergebnissen, im vorgeschlagenen Video-Stream, auf der Startseite, im Trend-Stream und unter Ihren Abonnements angezeigt werden. Wenn Sie die Startseite der Plattform aufrufen, bestimmen Algorithmen, welche Videos Sie sehen und welche nicht. Das Gleiche gilt, wenn Sie nach etwas suchen.
So alltäglich das auch in der heutigen digitalen Welt klingt, die Algorithmen von YouTube hatten ein Extremismusproblem. Unabhängig davon, ob Sie sich zuvor ein rechtsgerichtetes, linksgerichtetes oder sogar unpolitisches Video angesehen haben, empfiehlt der Algorithmus von YouTube immer immer extremere Videos, um die Aufmerksamkeit der Nutzer zu behalten und sie zum Ansehen möglichst vieler Videos zu bewegen.
Wie Zeynep Tufekci, außerordentlicher Professor an der School of Information and Library Science der University of North Carolina, der New York Times im März 2018 sagte, basiert das YouTube-Werbemodell darauf, dass Sie sich so viele Videos ansehen, wie sie Ihnen zeigen können (und die Anzeigen). die vor und während dieser Videos erscheinen).
Aufgrund dieses Algorithmus wurden Menschen, die sich Videos von Hillary Clinton und Bernie Sanders ansahen, letztendlich Videos empfohlen, die „Argumente über die Existenz geheimer Regierungsbehörden und Behauptungen, dass die Regierung der Vereinigten Staaten hinter den Anschlägen vom 11. September steckte“, enthielten.
Zurück ins Jahr 2020: Das Problem hat sich zwar etwas verringert, ist aber immer noch vorhanden. Es ist nicht einfach, eine Plattform, die sich für freie Meinungsäußerung einsetzt, mit gesellschaftlicher Verantwortung in Einklang zu bringen. Es ist nicht illegal, an Verschwörungstheorien zu glauben oder zu glauben, dass Michael Jackson nicht gestorben ist (er starb) oder dass Hillary Clinton eine kinderfressende pädophile Kannibale ist (sie ist es nicht).
YouTube hatte zuvor in einer Erklärung erklärt: „Falsche Informationen sind nicht unbedingt rechtsverletzend, es sei denn, sie überschreiten die Grenze zu Hassrede, Belästigung, Anstiftung zu Gewalt oder Betrug.“ Wir haben solide Community-Richtlinien entwickelt und setzen diese Richtlinien effektiv durch.“ Ja, die Algorithmen von YouTube wurden leicht angepasst, aber eine völlige Änderung ihrer Funktionsweise wäre geschäftsschädigend.
Während er erklärte, dass YouTube von Fall zu Fall problematische Videos aufnimmt, sagte Pichai: „Die Meinungsfreiheit ist die Grundlage von YouTube.“ Daher sind wir stark dazu geneigt, Inhalte auf der Plattform zuzulassen, selbst wenn Personen kontroverse oder beleidigende Ansichten äußern. Allerdings ist auf YouTube nichts möglich.“
Doch heute wurden Frazzledrip und Pizzagate auf YouTube einfach durch QAnon ersetzt. Auch wenn YouTube jeden Monat durchschnittlich Millionen von Videos entfernt, erkennt das Unternehmen beunruhigende Inhalte nur langsam und ist, wenn doch, zu nachsichtig, was die Inhalte angeht. Wir haben Leute wie 4chan, 8chan, 8kun und Voat gesehen, die es an die Spitze geschafft haben, nur um dann schnell abzustürzen und zu brennen. Wie geht es nach YouTube weiter? Sollten wir uns Sorgen machen?
Bis wir eine Antwort auf diese genaue Frage erhalten, gibt es bereits etwas anderes, worüber wir uns alle Sorgen machen sollten. Berichten zufolge hatte sich der Pizzagate-Schütze Tage vor seiner Abreise von seinem Haus in North Carolina nach Washington ein YouTube-Video über die Verschwörung angesehen, in dem er einem Freund erzählte, dass er „einen Pädophilen-Ring überfiel … Die Welt hat zu viel Angst, um zu handeln, und ich bin zu stur, es nicht zu tun.“ Zu.“ Vergessen wir nicht, dass US-Bürger Waffen haben und die meisten von ihnen keine Angst davor haben, sie zu benutzen – sei es aus dem richtigen Grund oder nicht.