Jugend und Medien - das Informationsportal zur Förderung von Medienkompetenzen

Suche

SadTok, Thinfluencer, AnaCoaches: gefährliche Aspektevon Social Media

| Bettina Bichsel

Gerade bei Jugendlichen sind TikTok, Instagram und andere Social-Media-Plattformen beliebt. Sie lassen sich von Influencer*innen inspirieren oder schauen sich unterhaltsame Videos an. Aber nicht alles, was gezeigt und angeboten wird, ist Spass. Essstörungen, Selbstverletzungen und Suizid sind weit verbreitete Themen. Und schnell kann man als User*in in eine gefährliche Negativspirale gelangen oder von Menschen angesprochen werden, die eine Notlage ausnutzen.

Fangen wir mit einem Phänomen an, das in letzter Zeit immer wieder in den Medien publik gemacht wird: SadTok oder PainTok. Das sind Subkategorien bei TikTok, der Videoplattform, die mit kurzen Clips weltweit Millionen von Menschen in ihren Bann zieht. Hauptsächlich tut TikTok dies mit coolen Songs und Dance moves, lustigen Tiervideos, kreativen Experimenten oder fiesen Challenges. Kurz:  mit allem, was in irgendeiner Form Spass bereitet.

Bald werden fast ausschliesslich solche Videos gezeigt, meist mit zunehmender Intensität.

Bettina Bichsel

Von Liebeskummer bis Todessehnsucht

Es gibt aber eben auch andere Videos. Traurige (Englisch: sad) zum Beispiel, von Menschen, die Liebeskummer haben, die sich unverstanden fühlen oder angesichts des Weltgeschehens verzweifelt und niedergeschlagen sind. Darum die Genre-Abkürzung SadTok.

Die andere Subkategorie PainTok steht sinngemäss für Inhalte rund um physische oder psychische Schmerzen (Englisch: pain). Thematisiert werden Selbstverletzungen, indem zum Beispiel Narben gezeigt werden und in den Kommentaren ein Austausch darüber stattfindet, wie die Verletzungen unentdeckt bleiben. Andere posten Videos über ihre psychischen Probleme, Depressionen oder Suizidgedanken.

Der Algorithmus steigert die Negativdynamik

Das Problem gerade bei TikTok ist, dass ein Algorithmus in hohem Masse darüber entscheidet, welche Videos mir als User*in gezeigt werden. Wenn ich ein Video zu Ende anschaue, like, einen Kommentar dazu schreibe, es mit anderen teile oder auch mehrmals abspiele, dann merkt sich das System das und schlägt mir immer häufiger Videos mit ähnlichen Inhalten vor.

Verschiedene Medien (wie das Wallstreet Journal, der Spiegel, BR Data und Puls Reportage oder der YouTube-Channel «So Many Tabs») sind mit Test-Profilen vorgegangen, um zu simulieren, wie der Algorithmus funktioniert. Bei allen war das Fazit gleich: In sehr kurzer Zeit werden, wenn man sich für Pain- oder SadTok-Videos interessiert, fast ausschliesslich solche Videos gezeigt, meist mit zunehmender Intensität. Wenn also beispielsweise zu Beginn ein melancholischer Song und ein Video über Liebeskummer gelikt wurden, erschienen im Feed plötzlich Beiträge, in denen es um Selbsthass, Selbstverletzungen und angedeutete Suizidgedanken ging. Videos, in denen Betroffene in positiver Weise über ihre Genesung gesprochen haben oder in denen Therapie- und Hilfsangebote gezeigt wurden, gab es zwar auch, aber deutlich seltener.

Labile und psychisch kranke Jugendliche besonders gefährdet

TikTok schreibt zwar in seinen Community-Richtlinien, dass «Inhalte, die Suizid darstellen, Suizidgedanken beinhalten oder zur Beteiligung an suizidalen oder selbstverletzenden Handlungen auffordern/ermuntern könnten», entfernt würden und gibt an, in den vergangenen Monaten bereits millionenfach entsprechend gehandelt zu haben. Zudem erhalten User*innen, die explizit nach solchen Schlagwörtern suchen, Hinweise für eine Hotline oder andere Hilfsangebote. Dennoch scheinen nach wie vor unzählige solcher Videos mit hoher Like-Zahl auf der Plattform zu kursieren.

Jugendliche, die unter psychischen Problemen leiden oder gerade eine labile Phase durchmachen, können durch solche Videos weiter getriggert werden und in eine Negativspirale geraten.

Oft spielt dieselbe Dynamik: Follower*innen wollen ihren Idolen nacheifern.

Bettina Bichsel

Wenn Magersucht verherrlicht wird

Die gleiche Gefahr droht beim Thema Essstörungen. Auch hier können soziale Medien eine Rolle spielen – im Guten (wenn Betroffene Hilfe finden) wie im Schlechten. Auf Instagram beispielsweise finden sich viele Profile vornehmlich von Mädchen und jungen Frauen, die auffallend dünn sind und ihr Abnehmen zelebrieren. In der Szene spricht man von «Thinfluencer*innen». Nicht selten verfügen sie über beachtliche Fangemeinden. Und wie bei anderen Influencer*innen auch, spielt dieselbe Dynamik: Die Fans wollen ihren Idolen nacheifern.

Aber nicht nur das, auch hier kommen natürlich Algorithmen zum Tragen, wie eine Studie eines Forschungsteams von Reset zeigt. In einem gefakten Account wurden Fotos eines abgemagerten Mädchens gepostet. Daraufhin wurden seitens Instagram neben Profilen von anderen (zu) dünnen Mädchen und Frauen zum Verlinken auch Diättipps und Werbung für Pillen zum Abnehmen vorgeschlagen. Und obwohl der Account nach ein paar Tagen nicht mehr aktiv betrieben wurde, stieg die Anzahl der Follower*innen kontinuierlich an, woraus die Forschenden den Schluss ziehen, dass Instagram das Profil weiterhin bei anderen bewarb. Sie kritisieren zudem, dass die Social-Media-Plattform nicht vehement genug gegen Inhalte vorgehe, die gegen ihre eigenen Richtlinien verstossen, nämlich Inhalte zu entfernen, «die Essstörungen verherrlichen oder Anregungen dazu geben».

Anorexie-Coaches: Gefährlicher Machtmissbrauch

Eine weitere Gefahr, die das Experiment aufdeckte, sind sogenannte «Anorexie- oder Ana-Coaches». Dabei handelt es sich um Männer, die entweder bei Einzelprofilen oder durch private Gruppen (etwa bei WhatsApp oder Instagram) Kontakt zu Betroffenen suchen. Sie versprechen, ihnen beim Abnehmen zu helfen, und wollen dafür als Gegenleistung Fotos, oft in sexualisierter Form. Sie nutzen ihre Machtposition aus, beleidigen, stellen Regeln auf, drohen mit Bestrafungen bei nicht erfüllten Vorgaben oder erpressen die Mädchen und jungen Frauen mit Fotos, die sie von ihnen bekommen haben, auf denen sie im Bikini oder in Unterwäsche zu sehen sind. Das Podcast-Team von Das Netz und der Bayerische Rundfunk zeigen in Beiträgen, wie schnell auch bei diesem Thema Kontakte zustande kommen. In der Schweiz sind in Fachkreisen noch kaum Fälle bekannt, in denen Magersüchtige von einem Austausch mit einem Ana-Coach gesprochen haben. Das mag aber auch daran liegen, dass das Thema schambehaftet ist und es den Betroffenen nicht leichtfällt, darüber zu reden.

Verhaltensänderungen wahrnehmen und ins Gespräch gehen

Wir wollen weder TikTok, noch Instagram oder eine andere Plattform verteufeln. Wichtig ist aber zu wissen, dass es in sozialen Medien Abgründe gibt, vor denen Jugendliche sich schützen müssen. Als Eltern und erwachsene Bezugspersonen können wir sie dabei unterstützen:

  • Seien Sie aufmerksam und beobachten Sie, ob Sie Veränderungen im Verhalten erkennen. Sprechen Sie das an und fragen Sie nach: «Mir fällt auf, dass du oft bedrückt wirkst. Was belastet dich?»
  • Interessieren Sie sich für die Online-Aktivitäten Ihres Kindes. Erkundigen Sie sich, was für Videos es sich anschaut, mit wem es sich austauscht und wem es folgt.
  • Wenn Sie Videos sehen oder auf Gruppenchats aufmerksam werden, die gesundheitsgefährdende Inhalte verbreiten, sprechen Sie mit Ihrem Kind darüber und melden Sie das Video/die Gruppe beim Anbieter des Dienstes.
  • Thematisieren Sie auch die Funktion von Algorithmen und erklären Sie, wie wichtig es darum ist, sich mit unterschiedlichen Themen zu befassen.  
  • Zögern Sie nicht, professionelle Hilfe in Anspruch zu nehmen. Manchmal fällt es Jugendlichen leichter, mit einer neutralen Person zu sprechen. Anlaufstellen können sein: 147 (Pro Juventute) oder feel-ok.ch.

Bettina Bichsel ist Journalistin und Texterin. Sie schreibt und bloggt unter anderem für Jugend und Medien.