Algospeak
Wer sich viel auf Plattformen wie TikTok, Instagram oder YouTube bewegt, stößt früher oder später auf ungewöhnlich geschriebene Wörter oder Emojis, deren Bedeutung sich nicht auf Anhieb erschließt. Was beim ersten Blick wie ein Tippfehler wirkt, folgt oft einem System – dem sogenannten Algospeak.
Entstehung des Algospeaks
Algospeak ist eine Form der digitalen Verschlüsselungssprache, die sich in den letzten Jahren auf Social-Media-Plattformen wie TikTok oder Instagram etabliert hat. Der Name setzt sich aus den beiden Wörtern „Algorithmus“ und „speak“ (englisch für Sprechen) zusammen. Gemeint ist damit eine bewusst veränderte Ausdrucksweise, mit der Nutzer*innen versuchen, automatisierte Inhaltsfilter der Plattformen außer Kraft zu setzen. Denn Plattformen wie TikTok oder Instagram prüfen automatisiert Beiträge und Kommentare, bevor diese überhaupt veröffentlicht werden. Hierdurch sollen Verstöße gegen die internen Richtlinien wie beispielsweise Hassrede, sexualisierte Inhalte und Gewaltverherrlichung vermieden werden. Wer aber trotz algorithmischer Einschränkungen über heikle oder kontroverse Themen sprechen wollte, griff zunehmend zu einer verschlüsselten Sprache, die den Algorithmen das Verstehen erschwert.
Was macht den Algospeak aus?
Beim Algospeak werden Begriffe umformuliert, Silben vertauscht oder es werden Zahlen statt Buchstaben eingesetzt. Auch das Verwenden von bestimmten Emojis oder Zahlenkombinationen fällt unter Algospeak. So steht “Seggs” für Sex, der Auberginen-Emoji (🍆) kann als Genital gedeutet werden und das lackierte Fingernägel-Emoji (💅) kann für Queerness stehen. Einige Begriffe aus dem sogenannten Algospeak lassen sich relativ leicht entschlüsseln. Meist wird dabei nur ein einzelner Buchstabe ersetzt, etwa in „d1ck“ (für das englische „dick“), „le$bian“ (für „lesbian“) oder „Depressi0n“ (für „Depression“). Komplexer wird es, wenn scheinbar harmlose oder alltägliche Wörter eine völlig neue, codierte Bedeutung erhalten. So nutzten TikTok-Nutzer*innen im Rahmen des #MascaraTrend im Jahr 2023 das Wort „Mascara“, um über persönliche Erfahrungen mit sexualisierter Gewalt zu sprechen.
Weitere Beispiele für Algospeak können außerdem sein:
- „@b0rt!0n“ anstelle von „abortion“
- Schneeflocken-Emoji (❄️) statt Kokain (aufgrund der optischen Ähnlichkeit zu Schnee)
- Mais-Emoji (🌽) für Pornografie (dies lässt sich auf die Ähnlichkeit des englischen Worts “corn” zurückführen)
Wann ist Algospeak sinnvoll?
Plattformen gewähren der Öffentlichkeit bisher keinen umfassenden Einblick, wie die automatisierte Erkennung von Inhalten abläuft und nach welchen Kriterien genau moderiert wird. Viele Plattformen wie zum Beispiel TikTok lassen automatisiert bestimmte Signalwörter filtern. Dabei verfolgen sie das Ziel, Nutzer*innen vor Hassrede, Beleidigungen, sexualisierten oder extremistischen Beiträgen zu schützen. Allerdings kann es dabei manchmal dazu kommen, dass Beiträge verborgen werden, die eigentlich nicht gegen die Richtlinien verstoßen. Man spricht hier von Overblocking. Dabei wird es Creator*innen unmöglich gemacht, beispielsweise über Themen wie sexualisierte Gewalt aufzuklären. Auch Erfahrungen über Diskriminierung oder sexuelle Aufklärung können davon betroffen sein. Darüber hinaus kann es auch zu Einschränkungen kommen, die für die Nutzenden nicht sofort ersichtlich sind. Manche Inhalte werden so eingeschränkt, dass sie den Nutzer*innen kaum angezeigt werden, ohne dass der*die Creator*in etwas davon mitbekommt (“Shadowban”). Wenn Creator*innen „geshadowbanned“ sind, ist es ihnen fast unmöglich Reichweite zu erlangen. Bei User*innen, die ihre Inhalte monetarisieren, werden zudem die beanstandeten Inhalte zusätzlich oft demonetarisiert, wodurch ein deutlicher Einnahmeverlust entsteht.
Problematische Kontexte
Nicht immer wird der Algospeak genutzt, um über sensible Themen oder kontroverse Inhalte aufzuklären und sich dazu auszutauschen. Einige Codewörter und Emojis werden eingesetzt, um Personen sexuell zu belästigen oder gezielt Hass sowie rechtsextremistische Inhalte zu verbreiten. Beispielsweise lassen sich unter Postings manchmal Emojis von spritzenden Tropfen (💦) oder Auberginen-Emojis (🍆) finden, bei denen die Verfasser andeuten wollen, dass sie die Inhalte sexuell erregt. In rechten Kreisen sind zwei Blitz-Emojis (⚡⚡) für die S-Runen oder ein Kreuz (❌) anstelle eines Hakenkreuzes gängig.
Darüber hinaus finden sich online auch Personen in Communitys zusammen, um sich zu selbstverletzendem Verhalten oder zu Selbstmordgedanken auszutauschen. Zum Teil ermutigen sie sich dazu sogar. Auch in diesen Kontexten haben sich bestimmte Codewörter und Emojis etabliert. Statt von Selbstmord (englisch „suicide“) zu sprechen, verwenden einige Nutzer*innen den Begriff „sewer slide“. Oder anstatt vom Tod zu sprechen, wird das Wort „unalive“ („unlebendig“) genutzt. Emojis wie das Messer (🔪), die Schere (✂️) oder der Rasierer (🪒) stehen für Selbstverletzungen und ein Barcode-Emoji (𝄃𝄃𝄂𝄂𝄀𝄁𝄃𝄂𝄂𝄃) für Narben durch selbstverletzendes Verhalten.
Tipps und Hinweise
Algospeak kann ein wichtiges Werkzeug sein, um auf Social Media offen über Tabuthemen aufklären zu können. Das Thema kann von Eltern dazu genutzt werden, kritisch auf Algorithmen zu blicken und mit Jugendlichen über Overblocking und Zensur zu sprechen. Dennoch bringt „Algospeak“ einige Herausforderungen mit sich. Etwa wenn Jugendschutzmechanismen umgangen werden und Kinder Inhalte sehen, die eigentlich gesperrt sein sollten. Deshalb ist es wichtig, dass auch Eltern ihre eigene Medienkompetenz stärken. Nur wer digitale Sprache und Algorithmen versteht, kann Kinder und Jugendlichesinnvoll begleiten, Risiken erkennen und klare Grenzen setzen, wo Kommunikation verletzend oder gefährlich wird.