Social Media in der Demokratie: Unterschied zwischen den Versionen

Aus ZUM-Unterrichten
Keine Bearbeitungszusammenfassung
(+kat)
Markierung: 2017-Quelltext-Bearbeitung
 
(5 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
'''Was soll in der digitalen Öffentlichkeit erlaubt sein?'''
'''Was soll in der digitalen Öffentlichkeit erlaubt sein?'''


'''Eine Projektidee mit Filmausschnitten aus ”The Cleaners”'''
'''Eine Projektidee mit Filmausschnitten aus ”The Cleaners” [http://www.bpb.de/mediathek/273199/the-cleaners (Online bei der bpb)]'''


===Bildungsbereiche und Fächer===
===Bildungsbereiche und Fächer===
SEK II: Politik, Ethik, Gemeinschaftskunde


außerschulische Jugendbildung, Erwachsenenbildung
*SEK II: Politik, Ethik, Gemeinschaftskunde
*außerschulische Jugendbildung, Erwachsenenbildung


'''Achtung, Mindestalter der Lerngruppe:''' Der Dokumentarfilm "The Cleaners" hat eine FSK-Freigabe ab 16 Jahren.
'''Achtung, Mindestalter der Lerngruppe:''' Der Dokumentarfilm "The Cleaners" hat eine FSK-Freigabe ab 16 Jahren.
Zeile 205: Zeile 205:
Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.
Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.


Linkt zum Text auf [http://www.bpb.de/gesellschaft/digitales/digitale-desinformation/290481/wie-sollen-plattformen-mit-falschmeldungen-verfahren bpb.de] (CC BY-NC-ND 3.0 DE)
Link zum Text auf [http://www.bpb.de/gesellschaft/digitales/digitale-desinformation/290481/wie-sollen-plattformen-mit-falschmeldungen-verfahren bpb.de] (CC BY-NC-ND 3.0 DE)


'''Gegen den Hass im Netz'''
'''Gegen den Hass im Netz'''
Zeile 237: Zeile 237:


Link zum Text auf [http://www.bpb.de/gesellschaft/digitales/digitale-desinformation/290575/die-medienlogik-der-informationsintermediaere-und-ihre-bedeutung-fuer-meinungsbildung bpb.de] (CC BY-NC-ND 3.0 DE)
Link zum Text auf [http://www.bpb.de/gesellschaft/digitales/digitale-desinformation/290575/die-medienlogik-der-informationsintermediaere-und-ihre-bedeutung-fuer-meinungsbildung bpb.de] (CC BY-NC-ND 3.0 DE)
==== Lösungsansätze in der Diskussion ====
'''Wie Ermittler Internet-Hetzern das Leben schwer machen wollen'''
Justizbehörden bemühen sich, Rechtsverletzungen im Netz konsequenter zu verfolgen. Sie arbeiten dabei mit einigen Medienunternehmen zusammen.
Link zum Text bei [https://www.sueddeutsche.de/digital/online-anzeige-hass-volksverhetzung-beleidigung-staatsanwaltschaft-1.4682038 Sueddeutsche.de] (alle Rechte vorbehalten)
'''Facebook löscht 1,7 Milliarden Fake-Accounts und erkennt Hassposts automatisch'''
Facebook setzt auf die automatische Erkennung von Fake-Accounts und problematischer Inhalte – mit zunehmendem Erfolg.
Link zum Text bei [https://www.heise.de/newsticker/meldung/Facebook-loescht-1-7-Milliarden-Fake-Accounts-und-erkennt-Hassposts-automatisch-4585753.html?xing_share=news heise.de] (alle Rechte vorbehalten)


===Über diesen Text (Redaktion)===
===Über diesen Text (Redaktion)===
Zeile 247: Zeile 260:
Redaktion: [http://www.sebastiankauer.de Sebastian Kauer], Vanessa Lindner
Redaktion: [http://www.sebastiankauer.de Sebastian Kauer], Vanessa Lindner
[[Kategorie:Politik]]
[[Kategorie:Politik]]
[[Kategorie:Unterrichtsidee]]

Aktuelle Version vom 17. November 2019, 04:24 Uhr

Was soll in der digitalen Öffentlichkeit erlaubt sein?

Eine Projektidee mit Filmausschnitten aus ”The Cleaners” (Online bei der bpb)

Bildungsbereiche und Fächer

  • SEK II: Politik, Ethik, Gemeinschaftskunde
  • außerschulische Jugendbildung, Erwachsenenbildung

Achtung, Mindestalter der Lerngruppe: Der Dokumentarfilm "The Cleaners" hat eine FSK-Freigabe ab 16 Jahren.

Kurzbeschreibung

Worum geht es?

Die Leitfrage für die Lerneinheit lautet: Welche Regeln sollten in einer demokratischen Gesellschaft für den Umgang mit "problematischen" Inhalten in Sozialen Netzwerken gelten? Dies wird am Beispiel von Facebook diskutiert. Dabei dienen Ausschnitte aus dem Dokumentarfilm “The Cleaners” (2018, FSK 16) als Impuls sowie als Material für die Erarbeitung.

Am Beispiel von Facebook untersuchen die Lernenden, wie ein Plattform-Anbieter mit Inhalten umgehen kann, die als problematisch gelten. Sie diskutieren Fallbeispiele, lernen Kritikpunkte an der derzeitigen Praxis kennen und entwickeln Ansätze dafür, wie eine Prüfung von Inhalten nach Prinzipien einer demokratischen Gesellschaft geregelt werden könnte.

Die Lernenden erkennen Wechselwirkungen zwischen den Funktionen einer Social Media-Plattform und gesellschaftlichen Entwicklungen. Der Fokus liegt dabei auf dem Spannungsverhältnis zwischen der Bedeutung von Social Media als Medium der Meinungsbildung und den Interessen des Unternehmens, das die Plattform als Produkt betrachtet.

“The Cleaners” ist in der Mediathek der Bundeszentrale für politische Bildung kostenlos online verfügbar unter: http://www.bpb.de/mediathek/273199/the-cleaners

Die Problematik

Einerseits erfüllen Social Media-Plattformen eine wichtige Funktion für die Gesellschaft: Sie dienen der Meinungsbildung und bieten Möglichkeiten der aktiven Partizipation. Andererseits bieten sie eine Plattform für Inhalte, die aus Sicht einer demokratischen Gesellschaft problematisch sind. Zum Beispiel ermöglichen sie es, auf sehr einfache Weise Hass und Hetze zu verbreiten.

Facebook ist einer der größten Medienkonzerne der Welt und unterhält neben Facebook auch die Plattformen instagram und Whatsapp, welche von Jugendlichen tagtäglich genutzt werden.

Die Entscheidungen von Facebook über den Umgang mit problematischen Inhalte führen oft zu Diskussionen. Es treten immer wieder Fälle auf, in denen die Entscheidungen nicht den rechtlichen Regelungen in Deutschland entsprechen und/oder angesichts der Rolle von Facebook als Medium der Meinungsbildung fragwürdig erscheinen.

Wie Facebook konkret vorgeht, hält das Unternehmen geheim. Bekannt ist jedoch, dass es die Prüfung von Inhalten an Subunternehmen ausgelagert hat (das sogenannte Content-Management). Dieses Vorgehen führt immer wieder zu Diskussionen und Gerichtsprozessen. Kritisiert wird, dass auf diese Weise rechtsstaatliche Prinzipien umgangen werden und sich der Umgang mit problematischen Inhalten aus der Unternehmenslogik ergibt.

Kritiker/-innen fordern, dass Facebook die Verantwortung für die auf der Plattform verbreiteten Inhalte übernehmen muss, weil sie Politik und Gesellschaft enorm beeinflussen können. Es stellt sich die Frage, ob das Vorgehen des Medienkonzerns in einer Demokratie wie Deutschland legitim ist und welche Regeln für die “digitale Öffentlichkeit” gelten (sollten).

Kompetenzen / Bezug zu Lehrplänen

Der Unterrichtsentwurf spricht verschiedene Kompetenzen an, welche fester Bestandteil gesellschaftspolitischer Fächer sind. Diese Kompetenzen bedienen außerdem Ziele der außerschulischen politischen Bildung.

Sachkompetenzen

Die Lernenden ...

  • erläutern die Bedeutung und Aufgaben von Medien für eine demokratische Gesellschaft. Konkret können sie Medien als Mittel zur politischen Willensbildung einordnen,
  • können Medien differenziert betrachten und deren Potenzial zur Gefährdung der Demokratie einstufen,
  • erklären die Wirtschaftlichkeit von Medien.

Methodische Kompetenzen / Medienkompetenzen

Die Lernenden ...

  • können Film als audiovisuelles Medium inhaltlich analysieren,
  • nutzen digitale Medien zur Visualisierung politischer und wirtschaftlicher Prozesse,
  • können Medienkritik aus demokratischer Perspektive formulieren sowie ethische Fragen bearbeiten,
  • reflektieren ihr persönliches Mediennutzungsverhalten.

Urteilskompetenzen

Die Lernenden ...

  • erörtern den Einfluss digitaler Medien auf politische Partizipationsmöglichkeiten,
  • erörtern, ob Medien ihre Kontrollfunktion in der Demokratie wahrnehmen,
  • bewerten das Zusammenspiel von Zivilgesellschaft und Medien im politischen Prozess.

Handlungskompetenz

  • Die Lernenden können reflektiert mit digitalen Quellen umgehen.
  • Der Zusammenhang von Medien im öffentlichen und privaten Raum wird erkannt und führt zur aktiven Partizipation.

Voraussetzungen und Material

  • Beamer/Smartboard
  • Gruppenarbeitsplätze mit Möglichkeiten für Video-Wiedergabe
  • ggfs. Software zur Erstellung der Schaubilder
  • W-LAN/Internetzugang, ausreichend für Video-Streaming

Umsetzung

Einstieg

Ziele:

  • Den Wissensstand zu Social Media abgleichen
  • Einen Überblick zum Nutzungsverhalten der Gruppe verschaffen
  • Gibt es persönlichen Bezug zum Thema “problematischer Content”?

Gesamte Gruppe: Soziometrisches Aufstellungsspiel mit 4-5 Fragen, z.B.

  • Wer nutzt Instagram?
  • Wer nutzt Whatsapp?
  • Wer nutzt einen anderen Messenger?
  • Wer nutzt Facebook?
  • Wer nutzt Snapchat?
  • Wer nutzt Tellonym?

Während der Aufstellung kann die Lehrkraft abfragen, was die einzelne Plattform ausmacht, ob es Alternativen gibt und ob den Teilnehmenden bewusst ist, dass Instagram, WhatsApp und Facebook zum selben Konzern (Facebook) gehören.  

Brainstorming / Plenum, Mindmap: persönliche Erfahrungen mit “problematischem Content”

Wer in der Lerngruppe hat schon persönliche Erfahrungen mit “problematischem Content” gemacht oder hat schon einmal im engeren Umfeld davon gehört? (z.B. Bilder/Videos mit Gewalt, extremistische Aussagen, Beleidigungen, gruselige Videos/Bilder, Pornografie)

  • Auf welcher Plattform?
  • Art des “problematischen” Contents?
  • Wie sind die Betroffenen damit umgegangen?

Die Beiträge werden in Stichworten für alle sichtbar notiert, z.B. in Form einer Mindmap.

Lehrkraft nennt Fragestellungen für die Lerneinheit:

  • Wie sollten wir idealerweise mit problematischem Content umgehen?
  • Warum ist die Situation heute nicht ideal?
  • Wie könnten wir Verbesserungen erreichen?

Lehrkraft kündigt Arbeit mit Film “The Cleaners” an:

  • Triggerwarnung (Film ist von der FSK ab 16 freigegeben): Szenen aus dem Film enthalten teilweise explizite Darstellungen von Gewalt, Krieg, Flucht, ...
  • Drei Filmausschnitte sind vorbereitet, Filmausschnitt 1 wird im Plenum gezeigt und besprochen, Filmausschnitt 2 und 3 in Gruppen gesichtet und bearbeitet.

Filmausschnitte

Link zum Film in der Mediathek der bpb: http://www.bpb.de/mediathek/273199/the-cleaners

  1. Die Aufgaben der Content Moderator*innen – Zwei Perspektiven (Min. 06:13-11:30)
  2. Bilder und ihr Kontext - Die Bewertungskriterien der Konzerne (Min. 32:48-39:00) (Hinrichtung Saddam Hussein, Bild Vietnamkrieg, Karikatur Erdogan, Abu-Ghuraib-Folter, Syrien-Krieg)
  3. Social Media und der Einfluss auf Demokratie. Facebooks Beteiligung am Genozid der Rohingya (Min. 1:07:11-1:10:18 )

Erarbeitung

Plenum: Sichtung des Filmausschnitts 1

Ziel:

  • Die Gruppe versteht das Prinzip des Content Managements von Facebook.

Lehrkraft stellt nach der Sichtung Fragen zur Diskussion:

  • Beschreibt die Arbeit der Content Manager*innen aus deren Sicht.
  • Beschreibt die Arbeit der Content Manager*innen aus Sicht von Facebook.
  • Warum arbeiten die Content Manager*innen auf den Philippinen?
  • Wer sind die beteiligten Akteure?

Die Beiträge werden für alle sichtbar in Stichworten notiert. Die Infos dienen als Grundlage für die folgende Gruppenarbeit.

Gruppenarbeit: Untersuchung von Fallbeispielen

Ziele:

  • Kritische Betrachtung von Bildern und Videos
  • Visualisierung von politischen Prozessen mit digitalem Tool
  • Reflexion des Prozesses des Content-Managements und Erweiterung durch eigenen Ideen

Die Lernenden untersuchen die Fallbeispiele in den Filmausschnitten 2 und 3.

Die Arbeitsaufträge für die Gruppenarbeit lauten:

  • Um welche(n) Inhalt geht es in eurem Filmausschnitt? Warum wird er als problematisch eingestuft?
  • Erarbeitet ein Schaubild (Concept Map, ggf. mit digitalen Tools), das alle Beteiligten im Bearbeitungsprozess des Umgangs mit problematischen Inhalt enthält.

Das Schaubild soll erklären:

  • Wie geht Facebook mit gemeldeten Inhalten um?
  • Wie sieht der Ablauf aus?
  • Schaubild ergänzen um eigene Ideen für Lösungsansätze

Abschluss

Ziele:

  • Ergebnissicherung
  • Fallbeispiele in Kontext setzen zu Prinzipien der Demokratie
  • Reflexion der Rolle von Medien in der Gesellschaft – national und international
  • Bewusstwerden über konkrete Handlungsmöglichkeiten

Im Plenum:

  • Präsentation der Schaubilder
  • Diskussion der Ergebnisse und Lösungsansätze vor dem Hintergrund demokratischer Grundsätze.

Die Lehrkraft stellt zur Diskussion, was die Fallbeispiele mit rechtsstaatlichen / demokratischen Regeln zu tun haben:

  • Was ist das Problem, wenn Inhalte mit “Nachrichtenwert” gelöscht werden? (vgl. mit Kontrollfunktion der Medien)
  • Was ist das Problem, wenn Inhalte nicht gelöscht werden, die Rechte verletzen? (Schutzauftrag des Staates – vor Gewalt, Diskriminierung etc.)
  • Was ist das Problem, wenn zunächst “falsche” Entscheidungen getroffen werden? (wenn legitime Inhalte gelöscht werden oder wenn Regelverstöße nicht verfolgt werden)
  • Was ist das Problem, wenn ein Unternehmen darüber entscheidet, was die Öffentlichkeit zu sehen / lesen bekommt? (Vergleich mit Regelungen zu dualem Rundfunksystem, Pressefreiheit in Deutschland)

Als Ergebnisse sollten festgehalten werden (z.B. in Form eines Schaubilds, in dem alle erarbeiteten Lösungsansätze zusammengetragen werden):

  • Meinungsäußerungen müssen in einer Demokratie möglich sein und sollten daher als legitimer Content gewertet werden.
  • Umgang mit (problematischem) Content muss demokratischen Regeln entsprechen und darf nicht von den Interessen der jeweiligen Social-Media-Unternehmen geleitet sein.
  • Es muss verlässliche Wege geben, um Recht durchzusetzen und “problematischen” Content zu löschen.
  • Keine Regelungen / Prüfverfahren können perfekt sein, da es immer Grenzfälle geben wird (Was ist “problematisch”, was “legitim”?), daher muss es Einspruchsmöglichkeiten geben.

Ggf. Abschluss/Bezug zu persönlichen Handlungsoptionen: Was kann ich selbst tun?

  • Ggf. selbst untersuchen: Wo sind in “meinen” Apps die Funktionen zum “Melden”? Was passiert, wenn ich die nutze?
  • Ggf. Infos aus eigenen Social Media-Feeds überprüfen / vergleichen: Ist das wahr, ist das ein Thema in anderen Medien etc.

Erweiterungsmöglichkeiten / Varianten

  • Statt des Films “The Cleaners” können andere Beispiele thematisiert werden, z.B. diskriminierende Aussagen und Urteile/Diskussionen dazu: z.B. Renate Künast (Diskriminierung aufgrund des Geschlechts bzw. Frauenfeindlichkeit), Alexander Gauland “Vogelschiss” (struktureller Antisemitismus), Jan Böhmermann Schmähgedicht Erdogan (Satire)
  • Künstliche Intelligenz: Wäre es nicht mit Blick auf die Traumatisierung der Cleaners besser, auf Software (KI) zurückzugreifen? Wo könnten hier Probleme liegen?
  • Begriff “Meinungsfreiheit” diskutieren, Grundrechte
  • Echokammer und Filterblase – Anstoß zu Selbstversuchen?

Hintergrund: Was muss ich wissen? (Links und Textauszüge)

"The Cleaners" – Inhalt und Link zur Mediathek

Tausende externe Mitarbeiter*innen sichten für Facebook, Youtube, Twitter und weitere Social Media Angebote Fotos und Videos. Der Film erzählt von ihrer belastenden Arbeit, bei der sie im Sekundentakt über das Löschen oder Veröffentlichen entscheiden. Die Kriterien und Vorgaben dieser Arbeit sind eines der am besten geschützten Geheimnisse der Internet Giganten. Parallel zu den Geschichten von fünf Mitarbeitern erzählt der Film von den globalen Auswirkungen der Online-Zensur und zeigt wie Fake News und Hass durch die Sozialen Netzwerke verbreitet und verstärkt werden.

Ausführliche Beschreibung und Streaming: http://www.bpb.de/mediathek/273199/the-cleaners

Social Media-Plattformen

Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren?

Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.

Link zum Text auf bpb.de (CC BY-NC-ND 3.0 DE)

Gegen den Hass im Netz

Den Hass im Netz eindämmen, soziale Netzwerke in die Verantwortung nehmen – das ist kurz gesagt das Ziel des Netzwerkdurchsetzungsgesetzes (NetzDG). Was genau hat es mit dem Gesetz auf sich?

Link zum Text auf bpb.de (CC BY-SA 4.0)

Persönlichkeitsrechte bei Facebook und anderen sozialen Netzwerken

Durch die zahlreichen unterschiedlichen und interessenspezifischen sozialen Netzwerke hat sich das Internet für Millionen Menschen zum wichtigsten Kommunikationsraum entwickelt. Sekündlich wird der weltweite Datenberg mit unzähligen neuen Kommentaren, Fotos und Videos angehäuft. Doch die Persönlichkeitsrechte anderer werden dabei nicht immer beachtet.

Link zum Text auf bpb.de (CC BY-NC-ND 3.0 DE)

Die Rolle von Medien in der Demokratie

Medien und Gesellschaft im Wandel

Massenmedien wie Presse, Radio und Fernsehen sowie das Internet und Social Web leisten einen unverzichtbaren Beitrag zum Funktionieren der Demokratie. Davon gehen Politiker im Allgemeinen und Medienschaffende im Speziellen, aber auch die Öffentlichkeit aus. Massenmedien sollen sowohl zur Stabilität wie auch zum Wandel der Gesellschaft beitragen.

Link zum Text auf bpb.de (Alle Rechte vorbehalten! Bundeszentrale für politische Bildung/bpb, Bonn © 2013-2016)

Meinungsbildung und Kontrolle der Medien

Demokratie setzt die freie individuelle Meinungsbildung und politische Willensbildung aller Bürgerinnen und Bürger voraus. Sie bilden sich eine Meinung darüber, wie die Gesellschaft, in der sie leben, aussehen sollte und welche politischen Entscheidungen sie gutheißen oder aber ablehnen. In diesen Meinungsbildungsprozess fließen möglichst viele unterschiedliche Perspektiven ein. In diesem Sinne ist Pluralismus ein wesentliches Prinzip von Demokratie.

Link zum Text auf bpb.de (Alle Rechte vorbehalten! Bundeszentrale für politische Bildung/bpb, Bonn © 2013-2016)

Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung

Wollen wir uns eine Meinung zu Themen oder Entscheidungen von gesellschaftlicher Relevanz bilden, können wir uns nicht ausschließlich auf unser eigenes Erleben im Alltag verlassen. Vielmehr sind wir darauf angewiesen, mit Hilfe von Medien einen Überblick zu gewinnen.

Link zum Text auf bpb.de (CC BY-NC-ND 3.0 DE)

Lösungsansätze in der Diskussion

Wie Ermittler Internet-Hetzern das Leben schwer machen wollen

Justizbehörden bemühen sich, Rechtsverletzungen im Netz konsequenter zu verfolgen. Sie arbeiten dabei mit einigen Medienunternehmen zusammen.

Link zum Text bei Sueddeutsche.de (alle Rechte vorbehalten)

Facebook löscht 1,7 Milliarden Fake-Accounts und erkennt Hassposts automatisch

Facebook setzt auf die automatische Erkennung von Fake-Accounts und problematischer Inhalte – mit zunehmendem Erfolg.

Link zum Text bei heise.de (alle Rechte vorbehalten)

Über diesen Text (Redaktion)

Dieser Text ist bei der OERcamp Werkstatt im November 2019 im Rahmen der Community "Politische Bildung in der Digitalen Welt" entstanden.

Die Community wurde von der Bundeszentrale für politische Bildung unterstützt.

Hintergrund sind Überlegungen zu einem Konzept für die Entwicklung kompetenzorientierter Materialien für die "Politische Bildung in der digitalen Welt".

Redaktion: Sebastian Kauer, Vanessa Lindner