Dritter Gleichstellungsbericht der Bundesregierung

Sehr geehrte Interessierte am Dritten Gleichstellungsbericht,

unser Mai-Newsletter ist da! Passend zum Wirbel um den Twitteraufkauf durch Elon Musk geht es dieses Mal um Soziale Medien. Dabei beleuchtet der „Einblick ins Gutachten“ vor allem, wie Geschlechterstereotype durch Soziale Medien verstärkt werden und welche Empfehlungen die Kommission entwickelt hat, um dagegen anzugehen. Prof. Dr. Hanna Kimpe erläutert in „Drei Fragen an…“ tiefergehend, welche Rolle dabei Empfehlungsalgorithmen spielen. Passende Vorschläge zum Weiterlesen, -hören, oder –anschauen gibt´s wie immer mit dazu. Diesmal finden Sie zudem einen Hinweis auf thematisch anknüpfende Forschungsprojekte.

In der Rubrik „Aktuelles“ geht es ebenfalls um Soziale Medien: Die Geschäftsstelle hat jetzt einen Mastodon-Account. Was, wie, wo und vor allem warum können Sie in der Aktuelles-Meldung nachlesen. Die Rubrik thematisiert zudem die Verständigung von Mitgliedstaaten und Europaparlament zum Digital Services Act.

Abschließend gibt es wie immer Hinweise auf vergangene und Ankündigungen zukünftiger Veranstaltungen, die spannend für Sie sein könnten.

Wir wünschen eine erkenntnisreiche Lektüre!

Inhalt dieser Ausgabe

Aktuelles: Einigung über Digital Services Act (DSA) | Geschäftsstelle jetzt auf Mastodon vertreten

Einblick in das Gutachten:  Geschlechterstereotype und Soziale Medien | Drei Fragen an Prof. Dr. Hanna Klimpe| Tipps zum Thema (Lesen, Sehen, Hören, Forschung)

Eindrücke aus der Arbeit der Geschäftsstelle und der Kommission: Vergangene und kommende Veranstaltungen

Aktuelles

Einigung über Digital Services Act

Ende April haben sich die Mitgliedsstaaten und das Europaparlament über das Gesetz für Digitale Dienste (Digital Services Act) geeinigt. Der Ende 2020 vorgelegte Entwurf für ein Gesetz über digitale Dienste zielt auf die Regulierung von Online-Plattformen. Das Gesetz ergänzt bzw. aktualisiert die alte E-Commerce-Richtlinie. Es sieht insbesondere einheitliche Haftungs‑ und Sicherheitsvorschriften für digitale Plattformen vor. Dazu gehören auch Verfahren zur Meldung und Entfernung illegaler Inhalte, die in Deutschland bislang im Netzwerkdurchsetzungsgesetz geregelt sind. Die Ziele des Digital Services Act entsprechen Empfehlungen des Dritten Gleichstellungsberichts, wonach Plattformbetreibende u.a. bei digitaler Gewalt stärker in die Pflicht zu nehmen sind. Ein Überblick über die Inhalte und Bedeutung des DSA finden Sie z.B. im Artikel “What does the DSA say?” (25.04.2022) von Daphne Keller oder in einem ausführlichen Twitter-Thread von MEP Alexandra Geese (Bündnis 90/Die Grünen).

Mehr Informationen zu weiteren Datenregulierungsvorhaben der EU finden Sie auf unserer Homepage.

Geschäftsstelle tootet jetzt auf Mastodon

Der angestrebte Kauf von Twitter durch Elon Musk hat Wellen geschlagen. Viele sind verunsichert, wie es bei einem Kauf  auf der Plattform weitergehen würde – insbesondere in Bezug auf demokratische Grundrechte, Datenschutz und Schutz vor Hassrede; Themen, die auch vor dem Kauf schon aktuell waren. Im Gutachten zum Dritten Gleichstellungsbericht wurden die Mechanismen, die z.B. in Form der algorithmischen Sortierung von Tweets oder dem Schalten von stereotypisierter Werbung auch Sexismus perpetuieren, ausführlich problematisiert. Wir möchten daher auf eine alternative Plattform aufmerksam machen: Mastodon. Der Nachrichtendienst ist in seinen Funktionen Twitter sehr ähnlich, basiert jedoch auf Open Source Software, verzichtet auf algorithmische Steuerung der Anzeigehäufigkeit und Reihenfolge der Toots (Equivalent zu Tweets auf Mastodon), ist dezentral angelegt und moderiert. Natürlich sind auch dort Problematiken wie Hassrede nicht automatisch ausgehebelt. Anders als bei den meisten kommerziellen Unternehmen besteht bei Mastodon jedoch auf vielen Instanzen zumindest der Anspruch, Diskriminierung durch die Moderation der Nachrichten zu minimieren und ggf. entsprechende Kommentare und Accounts zu löschen (siehe z.B. die Server-Regeln der Instanz „Mastodon social“, auf der unser Account angesiedelt ist). Ausführlichere Informationen zum Hintergrund und zur Einrichtung eines Mastodon-Profils gibt es z.B. im Artikel „Ausgezwitschert: Mastodon als zentrale Alternative zu Twitter“ und „Mastodon – das bessere Twitter?“ von Andreas Izchak Rehberg (2022) bei heise online und mobilsicher oder im Überblick „Fediverse – so geht gutes Social Media“ von Leena Simon (2021) auf dem Digitalcourage-Blog.

Unter dem Namen @gleichgerecht@mstdn.social finden Sie unseren Account bei Mastodon Social. Wir freuen uns über alle, die uns dort folgen möchten und kommende Interaktionen im Fediverse.

Einblick ins Gutachten

Geschlechterstereotype und Soziale Medien

Illustrationen von Ka Schmitz / Imke Schmidt-Sári

Mehr als die Hälfte der Menschen in Deutschland nutzen Soziale Medien. Ob zur Beziehungspflege, zum Teilen von Informationen, zur Meinungsbildung oder zur Jobsuche. Plattformen wie Facebook, Instagram, TikTok, Xing, LinkedIn oder Twitter sind aus dem Leben vieler Personen nicht mehr wegzudenken. Wie genau Soziale Medien genutzt werden, unterscheidet sich jedoch nach Geschlecht: Mädchen und Frauen nutzen Soziale Medien häufiger zum Austausch persönlicher und kreativer Inhalte und sind v. a. auf Instagram, Snapchat und TikTok aktiv. Jungen und Männer nutzen Soziale Medien häufiger zum Spielen und Meinungsaustausch. Sie sind v. a. auf YouTube und Twitter zu finden.

Soziale Medien ermöglichen Interaktion und Gestaltung und eröffnen Räume für vielfältige Darstellungen von Geschlecht und (politischen) Meinungen. Einige Internetseiten und Kampagnen in den Sozialen Medien zielen dezidiert darauf ab, Geschlechterstereotype abzubauen und Menschen verschiedener geschlechtlicher und sexueller Identitäten zu ermutigen und zu empowern. So z.B. das Online-Magazin „Mein Testgelände“, das Portal Genderdings, oder Instagram-Accounts wie „Erklär mir Mal“ oder „Say my name“. Solche Kampagnen und Projekte – so die Empfehlung der Sachverständigenkommission – sollten mehr gefördert werden. Soziale Medien können außerdem einen Zugang zu Communities und Safe Spaces bieten, die Austausch ermöglichen, Zugehörigkeitsgefühle vermitteln und das Selbstwertgefühl steigern können. LSBTIQ+-Jugendliche und (junge) Erwachsene können in Sozialen Medien eine Repräsentation erfahren, die sie offline oft nicht erleben.

Dennoch spiegeln Soziale Medien in den meisten Fällen keineswegs die Vielfalt der Geschlechter, sondern transportieren größtenteils traditionelle Bilder von Männern und Frauen. Häufig verstärken sie damit Stereotype weiter. Bevor sie ein Foto posten, nehmen z.B. 94 Prozent der Frauen und 87 Prozent der Männer mindestens eine Optimierung vor. Das heißt, dass sie ihr Foto mit Filter-Apps bearbeiten, um sich einem weiblichen oder männlichen Schönheitsideal anzupassen.  Dies hat negative Einflüsse auf das Körperbild vieler junger Menschen. Teilweise wirkt dies sogar ganz direkt gesundheitsbeeinträchtigend. Die klischeehafte Darstellung von Geschlechterrollen in Sozialen Medien wirkt sich auf die Vorstellungen junger Menschen aus: Je intensiver sie soziale Medien nutzen, desto stereotyper denken sie über Rollenverteilungen von Männern und Frauen.

Dass Geschlechterstereotype auf Sozialen Medien so präsent sind, liegt laut bisherigen Forschungen an vier zentralen Faktoren: Erstens finanzieren sich Soziale Medien neben der Weitergabe von Daten durch Werbung. Auch Einzelpersonen, sogenannte Influencer*innen, können ihre Kanäle für Werbezwecke nutzen und so Geld verdienen. Wer für welche Produkte werben soll, ist dabei vom Geschlecht abhängig: Mädchen und Frauen können z.B. eher mit Kosmetikprodukten und Mode Geld verdienen. Durch ihre Vorbildfunktion für andere, werden so existierende Stereotype und Normen reproduziert. Um eine Reflexion solcher Stereotype und der häufig damit verbundenen Körperideale zu gewährleisten, braucht es mehr Angebote der Medienbildung, die diese Faktoren miteinbezieht, fordert die Sachverständigenkommission. Ein zweiter Problemfaktor ist es, dass, wie auch in anderen Medienbranchen, die Produktionskulturen in Sozialen Medien männlich geprägt sind. So wie der männliche Blick in der Filmindustrie dominiert, spiegelt sich dieser auch in den Funktionsweisen von und den Inhalten auf Sozialen Medien wider. Verhaltenskodexe und die Entwicklung von Verfahren für die gleichberechtigte Teilhabe für die Medien- und Werbebranche könnten Maßnahmen sein, um dem entgegenzuwirken. Verstärkt wird diese Gegebenheit, drittens, durch diskriminierende Empfehlungsalgorithmen, die bestimmte Inhalte priorisieren. Wie auch bei anderen Algorithmen werden die bewussten und unbewussten sexistischen und rassistischen Vorurteile von Programmierer*innen in den Ergebnissen reproduziert. Hersteller*innen von Software, die Empfehlungsalgorithmen enthalten, sollten daher schon in der Gestaltung dazu verpflichtet werden, durch geeignete Tests Diskriminierungspotenziale zu minimieren, so die Sachverständigenkommission. Der vierte Faktor, der insbesondere den Ausdruck nicht hegemonialer Bilder von Geschlecht und Sexualität beeinträchtigt, ist digitale Gewalt. Mädchen und junge Frauen, sowie queere Personen sind besonders oft mit Hate Speech oder sexueller Belästigung im Netz konfrontiert. Noch mehr betroffen sind Personen, wenn sie zudem feministische und/oder dem heteronormativen Blick nicht entsprechende Inhalte produzieren. Um sich selbst zu schützen, achten viele Menschen darauf was sie posten oder ziehen sich, wenn sie von digitaler Gewalt betroffen sind, gar aus dem Netz zurück (zum Thema digitale Gewalt haben wir im Januar bereits einen eigenen Newsletter veröffentlicht).  

Prof. Dr. Hanna Klimpe gibt uns im folgenden Interview einen detaillierteren Einblick in die Wirkungsweisen der vier Faktoren. Insbesondere die Funktion von Algorithmen auf Sozialen Medien wird näher beleuchtet.

Zum Weiterlesen:

Themenblatt 6: Geschlechterstereotype in Sozialen Medien

Drei Fragen an Prof. Dr. Hanna Klimpe

Prof. Dr. Hanna Klimpe ist Professorin für Social Media an der Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg).

 

Soziale Medien könnten die Vielfalt der Geschlechter widerspiegeln. Stattdessen transportieren sie größtenteils traditionelle Bilder von Männern und Frauen. Wie kommt es dazu?

Auch „klassische“ Massenmedien wie Fernsehen oder Zeitschriften transportieren eher stereotype Geschlechterbilder. Insofern ist es einerseits erwartbar, dass soziale Medien die traditionellen Bilder, von denen unsere gesamte Gesellschaft geprägt ist, ebenfalls widerspiegeln. Natürlich haben User*innen in sozialen Medien prinzipiell die Möglichkeit, sich individuell und komplex zu inszenieren. Eine der großen Hoffnungen von Internettheoretiker*innen wie Donna Haraway und Sherry Turkle Mitte/Ende der 1990er Jahre war, dass Menschen sich im virtuellen Raum frei von der Objektifizierung ihrer Körper inszenieren können. Im Gegenteil zeigen Studien, dass User*innen auf Selfies stärkere Stereotype reproduzieren, als sie z.B. in Werbekampagnen gezeigt werden. Dieser Druck nach Stereotypisierung trifft übrigens Männer ebenso wie Frauen, z.B. darin, den Körperidealen von Fitnessinfluencer*innen zu entsprechen.

Warum werden also in sozialen Medien traditionelle Geschlechterbilder reproduziert, obwohl jede*r im Prinzip frei ist, sich im digitalen Raum selbst zu entwerfen? Soziale Medien funktionieren über das Bedürfnis nach Anerkennung und Sichtbarkeit. Insbesondere für junge Menschen sind soziale Medien ein zentraler Ort für den Austausch mit ihren Peer Groups. Erstrebt wird positive Resonanz in Form von möglichst vielen Likes, Shares und positiven Kommentaren. Orientierung bieten Fotos und Videos von erfolgreichen User*innen, z.B. Influencer*innen, die ebenso wie in „traditioneller“ Werbung mit stereotypen Geschlechterbildern erfolgreich sind. Verknüpft mit dem Bedürfnis nach Anerkennung ist die Sorge vor Sanktionierung durch negative Reaktionen bis hin zu Cybermobbing und Hate Speech – wovon Frauen ebenso wie andere vulnerable Gruppen wie migrantisch gelesene oder behinderte Menschen überproportional betroffen sind. Diese Dynamik aus Bestätigungsbedürfnis und Angst vor Ablehnung wird durch die Funktionsweise der Algorithmen, die die erfolgreichen, auf stereotypen Darstellungen basierenden Geschlechterbilder bevorzugt empfehlen, exponentiell potenziert. Soziale Medien neigen daher dazu, bestehende Stereotype zu verschärfen. 

Gleichzeitig haben sich auf sozialen Medien zahlreiche Communities gebildet, die selbstbewusst Geschlechtervielfalt darstellen. Die LGBTQIA+-Community z.B. hat für sich beansprucht, auf TikTok einen eigenen Raum geschaffen zu haben, das sogenannte „Alt-TikTok“ (Alternative TikTok). Dabei muss hinzugefügt werden, dass TikTok laut Recherchen der Tagesschau auch in Deutschland Wortfilter benutzt, um Begriffe aus der LGBTQIA+-Community wie "schwul", "queer", "LGBTQ" oder "homosexuell" zu unterdrücken. Diese Räume werden bislang zu wenig untersucht, weil sie weitestgehend Nischenphänomene bilden. Dabei wäre dies ein wichtiger Schritt, um mehr Geschlechtervielfalt auf sozialen Medien zu schaffen.

Besonders bildbasierte Plattformen wie Instagram (re-)produzieren mit ihren Empfehlungsalgorithmen geschlechtlich normierte Körperbilder.  Wie funktionieren diese Algorithmen?

Die Algorithmen richten sich zunächst natürlich nach der Strukturierung der Plattformen aus: Eine Plattform wie Instagram ist grundsätzlich auf normschöne, gefilterte Bilder ausgerichtet, TikTok auf Körperinszenierungen durch Tanz und Gesang, die aber durchaus Handlungsspielraum zulassen.

Empfehlungen erfolgen einmal über beliebte Hashtags: Je häufiger ein Hashtag verwendet wird, desto wahrscheinlicher ist es, dass ein Foto oder Video mit diesem Hashtag im Empfehlungsfeed angezeigt wird. Dabei sind Hashtags durchaus manipulationsanfällig: So ist es z.B. in der politischen Kommunikation auf Social Media eine beliebte Strategie, Hashtags zu „kapern“, z.B. homophobe Hashtagkampagnen mit Videos von koreanischer Popmusik zu posten, so dass unter diesem Hashtag mehr Popvideos als homophobe Inhalte zu sehen sind. In der entgegengesetzten Richtung funktioniert diese Methode aber natürlich auch.

Zweitens funktionieren Empfehlungsalgorithmen durch KI-basierte Analyse von (Bewegt-)bildern, indem beliebte Körperbilder, Posen, Bewegungen etc. identifiziert und bevorzugt angezeigt werden. Dies führt natürlich dazu, dass stereotype Bilder verstärkt sichtbar gemacht und entsprechend wieder reproduziert werden. Auch hier gibt es Versuche von User*innen, dies zu unterwandern: So ist z.B. 2018 die damals 17-jährige Amerikanerin Feroza Aziz damit bekannt geworden, den Algorithmus von TikTok, der chinakritische Inhalte zensiert hat, zu überlisten, indem sie ein vermeintlich harmloses Schminktutorial produziert hat, in dem sie aber über die Unterdrückung der Uiguren gesprochen hat. Bevor der Algorithmus das Video als inhaltlich kritisch identifiziert und gelöscht hatte, war Aziz längst viral gegangen.

Grundlegend problematisch an Empfehlungsalgorithmen ist die mangelnde Geschlechterdiversität unter Programmier*innen. Algorithmen werden hauptsächlich von Männern programmiert: Der berühmte „Like“-Button auf Facebook wurde ursprünglich von Mark Zuckerberg implementiert, um die Attraktivität seiner Kommilitoninnen zu bewerten. Für geschlechterdiversere Empfehlungsalgorithmen braucht man vor allem auch mehr Frauen* mit Genderkompetenz als Programmiererinnen.

Die Sachverständigenkommission für den Dritten Gleichstellungsbericht empfiehlt u.a. Empfehlungsalgorithmen Sozialer Medien weniger geschlechterverzerrend und diskriminierend zu gestalten. Was sind dafür aus Ihrer Sicht die wichtigsten Stellschrauben?

Eine wichtige Stellschraube, insbesondere bei jugendlichen User*innen, wäre eine automatisierte und sorgsame Beobachtung der sogenannten Challenges, die Jugendliche oft zu extremem Verhalten animieren. Challenges sind z.B. bei anorektischen Jugendlichen sehr beliebt. Hier müssten Algorithmen diese rechtzeitig identifizieren und die Plattformen eingreifen.

Das soll aber nur ein Beispiel dafür sein, dass Plattformen stärker in die Pflicht genommen werden müssen. Eine solche Kontrolle darf nicht den Unternehmen überlassen werden: Die Ethikforscherinnen Timnit Gebru und Margaret Mitchell wurden beide bei Google gekündigt, nachdem sie sexistische und diskriminierende Dynamiken in den Google-Algorithmen kritisiert hatten. Die Meta-Whistleblowerin Frances Haugen hat dabei letztes Jahr im US-Kongress detailliert Auskunft darüber gegeben, dass die Unternehmen durchaus in der Lage wären, neutrale oder diverse Inhalte auszuspielen, aber radikale Inhalte bevorzugen, weil diese eine hohe Reichweite erzeugen. Hier müssen für die Unternehmen verpflichtende juristische Grundlagen geschaffen werden.

Tipps zum Thema (Lesen, Sehen, Hören, Forschung)

Lesen:

  • Jessica Orlowicz zeigt in „Empowerment: Wo virtueller Feminismus seine Grenzen hat“ (2021), wie Feministinnen versuchen, sich im Netz zu behaupten und welchen Einfluss Algorithmen und Hassrede in Sozialen Medien auf die Möglichkeiten von Empowerment haben. Interviewt wird unter anderem Dr. Hanna Klimpe.
  • Einen besonders kritischen Blick auf die Kultur der Selbstinszenierung von Influencer*innen und Feminismus, wie er teilweise im Netz gelebt wird, wirft Astrid Exner in ihrem Artikel „Authentische Werbeflächen“ im österreichischen Magazin An.schläge.
  • Einen kurzen Blick auf die andere Seite der Medaille – TikTok als Möglichkeit für queere Jugendliche, sich auszuleben und Communities zu finden – wirft die Kolumnistin Kuku Schrapnell in „Queere Leute auf Tiktok: Checkt sie aus!“ (2020) in der A&K.
  • Auch im Neunten Familienbericht der Bundesregierung (2021) werden Soziale Medien thematisiert. In Kapitel 5.6 (S.201ff.) geht es unter anderem darum, wie Eltern ihre Kinder bei der Nutzung Sozialer Medien begleiten können, damit sie lernen, konsumierte Inhalte und die eigene Darstellung zu reflektieren und mit Risiken wie z.B. Digitaler Gewalt oder der Vermittlung stereotyper Geschlechterbilder vertraut sind.

Sehen:

  • In einem investigativ-journalistischen Experiment haben sich  Svea Eckert, Sulaiman Tadmory und Lena Kampf mit Mechanismen auf Instagram befasst, die Essstörungen befeuern. Der darauf basierende Multimedia-Beitrag kann auf der tagesschau-Seite gelesen, angeschaut und angehört werden. Ergänzend dazu wird in der Puls-Reportage „Aufgedeckt: So gefährlich ist der Algorithmus von TikTok“ gezeigt, wie der TikTok Algorithmus Inhalte wie Depression, Selbstverletzung und Suizid puscht.
  • Die MaLisaStiftung erarbeitete eine der bisher umfassendsten Studien zu weiblicher Selbstinszenierung in Sozialen Medien, die auch in das Gutachten zum Dritten Gleichstellungsbericht eingeflossen ist. Auf der Homepage der Stiftung erklären die Forscherinnen Prof. Dr. Claudia Wegener, Prof. Dr. Elizabeth Prommer und Dr. Maya Götz in kurzen Videointerviews ihre Ergebnisse.
  • Im ZDF Magazin Royal vom 8. April befasste sich Jan Böhmermann mit Sozialen Medien. Thematisiert wurden u.a. sexistische und rassistische Instagram-Filter, Schönheitsideale und deren Auswirkungen auf junge Menschen, insbesondere junge Frauen.

Hören:

  • In gleich vier Folgen in der Zeit vom 11.01.2022 bis zum 01.02.2022 beschäftigte sich auch der She Likes Tech-Podcast mit der sogenannten „Magersucht-Community“ auf Instagram und den problematischen Dynamiken auf der Plattform.

Forschung:

Eindrücke aus der Arbeit der Geschäftsstelle und der Kommission

Ausgewählte vergangene und kommende Veranstaltungen

Die Sachverständigen und die Geschäftsstelle stellen die Inhalte des Gutachtens bei verschiedensten Konferenzen, Tagungen und Sitzungen vor.

Auf unserer Homepage finden sie einen Überblick über die vergangenen und bisher geplanten Veranstaltungen. Wenn Sie selbst eine Veranstaltung planen, können Sie sich gern mit entsprechenden Anfragen für Vorträge per Email an uns wenden.

  • Geschäftsstellenmitarbeiterin Mirjam Dierkes wird bei den Frauen-Infotagen der Stadt Ludwigsburg zum Thema „Gleich – Gestellt?! mit Schwerpunkt auf Digitalisierung in der Arbeitswelt“ am 18.05. den Dritten Gleichstellungsbericht vorstellen. Anmeldung und weitere Informationen auf der Website des Landkreis Ludwigsburg.
  • Sachverständige Prof. Dr. Indra Spieker trägt bei der Veranstaltung „Das vermessene Leben – Transformationen der digitalen Gesellschaft“ der Goethe-Universität Frankfurt am 1. und 2. Juli vor. Um ihren Vortrag „Macht durch und von Algorithmen – die Ohnmacht des Einzelnen und was die Regulierung dagegen tut“ zu hören, können Sie sich bis zum 31. Mai per Mail anmelden. Die Teilnahme ist vor Ort oder online jeweils kostenlos möglich.

 

Ihre Geschäftsstelle für den Dritten Gleichstellungsbericht

Geschäftsstelle Dritter Gleichstellungsbericht der Bundesregierung
Institut für Sozialarbeit und Sozialpädagogik e. V.

Postfach 50 01 51,
D-60391 Frankfurt a. M.

Website: dritter-gleichstellungsbericht.de

Twitter: @gleichgerecht

Mastodon: @gleichgerecht@mstdn.social

Institut für Sozialarbeit und Sozialpädagogik – Gemeinnütziger e. V.

Gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend

Wenn Sie diesen Newsletter nicht weiter beziehen wollen, können Sie hier ihre E-Mail-Adresse aus dem Verteiler austragen