Loading...

Unter „Fashwave“ versteht man eine Onlineästhetik, die von rechten Akteur*innen auf TikTok, Instagram, YouTube, Telegram und Co. genutzt wird, um vor allem männliche Jugendliche mit ihrer Propaganda zu erreichen.

Dabei werden z.B. grelle Neonfarben, 80er-Jahre-Computerästhetik und populäre Musik mit faschistischen Botschaften gepaart. Was auf den ersten Blick wie eine zynische Satire oder ein misslungenes Kunstprojekt wirkt, ist in der rechten Szene äußerst beliebt. Wir erklären, was hinter dem Internetphänomen steckt.

Ein poppiger Synth-Beat aus einem Videospiel als musikalische Untermalung von Aufnahmen aus dem Zweiten Weltkrieg, die die Wehrmacht an Kriegsschauplätzen oder bei Militärparaden zeigen. Rosa gefiltert, mit vielen weiteren Bildbearbeitungseffekten. Dazu schnelle Schnitte auf Hakenkreuze, den Hitlergruß und Bomben. Was wie eine Mischung aus Disco, Doku und Fiebertraum wirkt, ergattert im Netz Klicks, Likes und Kommentare wie: „Wir müssen die Degenerierten bekämpfen!“, „Bald…“ oder SS-Runen, gefolgt von Herzen. Das alles ist „Fashwave“, eine Form der Ästhetisierung von nationalsozialistischen Verbrechen und Symbolen. Was steckt dahinter? Und wer schaut sich das eigentlich an?

Wer soll mit „Fashwave“ angesprochen werden?
Die vorrangige Zielgruppe sind – neben Faschist*innen – apolitische Jugendliche, besonders Jungen und junge Männer. Denn die Darstellungen von Heldentum und Männlichkeit, verknüpft mit Videospiel- und Retrofilm-Ästhetik, können für ein zuvor unpolitisches Publikum einen möglichen Einstieg in Nazi-Propaganda darstellen. Studien wie „TikTok's Spiral of Antisemitism“ von Gabriel Weimann und Natalie Masri zeigen, dass Jugendlichen diese Inhalte ausgespielt werden, auch wenn sie sich eigentlich nur für Videospiele interessieren. Kurioserweise kann jedoch auch ein gesteigertes Interesse an politischen Themen die Wahrscheinlichkeit erhöhen, mit „Fashwave“ in Berührung zu kommen.

Welches Ziel wird mit „Fashwave“ verfolgt?
Mit ihrer Aufmachung vermitteln die Videos ein verzerrtes Bild von der Geschichte und Ideologie des Nationalsozialismus. Denn der Zweite Weltkrieg wird hier nicht im historischen Kontext dargestellt, vielmehr werden die Nazis bewusst zu Siegern stilisiert. Absichtlich werden die Opfer, Morde und Gräueltaten der Nationalsozialist*innen ausgeblendet. Nicht etwa, weil das Videomaterial fehlt, sondern weil die „Fashwave“-Clips dazu gemacht sind, das Selbstbewusstsein der Neuen Rechten im Hier und Jetzt zu stärken und kritische Betrachter*innen zu trollen.

Triggerwarnung auf den Kopf gestellt
Gerne stellen die Produzent*innen einen Warnhinweis vor oder unter die Videos, in dem sie behaupten, die Clips seien nur zu Bildungszwecken erstellt worden – oder sie sprechen sich ausdrücklich gegen Hate Speech in den Kommentaren aus. Das ist jedoch nur eine billige Masche und Manipulation, um sich der Verantwortung zu entziehen und dafür zu sorgen, dass die Videos nicht gesperrt werden. Denn eigentlich suchen die Menschen hinter den Kanälen mit diesen Videos Gleichgesinnte oder Neulinge, die ihre rechten Positionen teilen und Nationalismus normalisieren möchten.

Der Hype inspiriert rechtsgesinnte Musikprozenten, den Synth-Sound zu kopieren. Durch Titel wie „Cybernazi“ oder Plattencover im Fashwave-Stil wird jedoch nicht nur die Ästhetik, sondern auch die Ideologie verbreitet.

Der Hype und seine Gefahren
Viele Accounts erstellen und teilen zudem „Fashwave“-Videos, die andere Gräueltaten der Menschheitsgeschichte aufgreifen, beispielsweise Kriegsverbrechen an der kongolesischen Bevölkerung. Der neueste Trend sind allerdings Videos in „Fashwave“-Ästhetik, die den russischen Angriffskrieg in der Ukraine glorifizieren. Die Logik dahinter ist klar: Alte Kriegs- und Männlichkeitsfantasien sollen auf aktuelle Phänomene und Konflikte übertragen werden.Die meisten Plattformen blockieren inzwischen den Hashtag #Fashwave, doch die Produzent*innen weichen immer wieder schnell auf andere Kürzel und Hashtags aus. Ist bei Nutzer*innen also erst einmal ein Video dieser Art „natürlich“ im Algorithmus aufgetaucht, werden höchstwahrscheinlich weitere demokratiefeindliche und menschenverachtende Inhalte folgen – und im schlimmsten Fall zur Radikalisierung beitragen. 


Wenn ihr mehr über versteckten Antisemitismus und Strategien zum Umgang mit Hass im Netz und auf Videoportalen wissen möchtet, besucht gerne die Projektseite unserer Antisemitismuskritischen Bildungsinitiative auf TikTok.