Leitlinien für jugendgerechte soziale Netzwerke
Visual: anjariese.com
Zur Aufzeichnung der Übergabe der Forderungen an das BMJV am 20.08.21 mit Dolmetscher*innen für Deutsche Laut- und Gebärdensprache: vimeo.com/user140716875/review/589375197/ec121bd0a1
(Daten-) Souveränität
Ich kann über meine Daten selbst bestimmen!
Junge Verbraucher*innen fordern Einstellungen, die Datensouveränität garantieren. Sie wollen selbst entscheiden, welche Daten sie wann und wem preisgeben. Ein gutes und sicheres Nutzen des Angebotes muss auch ohne Abgabe persönlicher Daten über das technisch und gesetzlich Notwendige hinaus möglich sein.
Ich weiß jederzeit, was mit meinen Daten und Bildern passiert!
Junge Verbraucher*innen wollen jederzeit abfragen können, wann welche Daten abgegeben wurden und was damit passiert. Eine solche Funktion muss gut sichtbar, der Zeitraum zur Rückmeldepflicht kurz (zum Beispiel 24 Stunden) und klar definiert sein. Die Rückmeldung muss verständlich aufbereitet und nicht zu „technisch“ sein.
Zusätzlich sollen Plattformbetreiber explizit um Erlaubnis bitten, wenn sie Bilder weiter nutzen wollen. Sie müssen nachvollziehbar machen, welchen Weg das Bild durch das Netz nimmt. User*innen wollen ihr Recht am Bild auch rückwirkend geltend machen.
Ich kann meine Daten schnell und einfach löschen!
Junge User*innen wollen ihre Bilder und Daten einfach löschen können. Bislang verhindern die AGB der Plattformen das oft. Sie höhlen zum Beispiel das Recht am eigenen Bild aus und minimieren die Chance, Bilder zu löschen.
Transparenz
Ich kann einfacher nachvollziehen, warum mir Beiträge und Inhalte angezeigt werden und Einfluss auf die Auswahl nehmen.
Junge Menschen wollen sehen und verstehen können, warum ihnen Beiträge und Inhalte vorgeschlagen oder angezeigt werden. Sie wollen selbst entscheiden können, dass sie keinen algorithmisch erzeugten Feed bekommen. Stattdessen einen, den sie bewusst selbst wählen. Dazu sollen eigene Suchverläufe nicht gespeichert werden, wenn jemand das nicht will.
Unter kontroversen Beiträgen kann ich Hinweise auf seriöse Quellen aus Medien und Behörden sehen.
Wer sich innerhalb einer Echokammer oder Bubble bewegt, soll sehen können und angezeigt bekommen, was zuverlässige Quellen auf journalistischer Grundlage oder Behörden und Wissenschaft zum Thema sagen.
Höhere Kontrolle mit Blick auf Intransparenz und Marktmacht. Zugang zu Daten für Aufsichtsbehörden, Zivilgesellschaft und Wissenschaft.
Wissenschaft muss Zugang zu anonymisierten Daten der Netzwerke und Plattformen erhalten, um die Prozesse und Entwicklungen zu erforschen. Bisher geschieht das zu wenig oder wird zu aufwändig gestaltet. Dienste müssen aber überprüfbar sein. Unabhängige Wissenschaft kann und soll eine zentrale Rolle dabei spielen. Außerdem müssen Schnittstellen geschaffen werden, mit denen eine Beobachtung durch Aufsichtsbehörden und Zivilgesellschaft selbst möglich wird - ergänzend zur Wissenschaft.
Der Wechsel zwischen Netzwerken muss offen und interoperabel sein.
In der Interoperationalität liegt eine Chance für mehr Transparenz und Souveränität der User*innen. Es entstehen offene Schnittstellen. Jede*r kann von jedem Anbieter mit anderen Personen Kontakt aufnehmen.
Junge User*innen wollen selbst entscheiden, welche Plattformen sie unterstützen und nutzen wollen. Bislang ist ein Wechsel zwischen Netzwerken und Diensten nur möglich, wenn alle im Freundeskreis mitziehen und mitwechseln.
Diversität und Inklusion
Barrierefreiheit ist Standard und Bilder haben Alternativ-Texte.
Videos ohne Untertitel oder Bilder ohne hinterlegten Alternativen Text (ALT) sind für Menschen mit Einschränkungen in sozialen Netzwerken kaum oder gar nicht wahrnehmbar. Betriebssysteme und auch Plattformen bieten zwar Assistenz-Systeme, sie sind aber nicht selbstverständlich und teilweise - je nach Netzwerk - nicht kompatibel. Das schränkt junge Menschen mit Behinderung ein. Barrierefreiheit muss Standard sein.
Zum Beispiel: Zur Grundeinstellung gehört, dass jedes Bild beim Hochladen mit einem ALT-Text beschrieben werden muss.
Barrierefreie Inhalte erzielen eine höhere Reichweite!
Barrierefreie Inhalte müssen eine höhere Reichweite erzielen und von den Algorithmen bevorzugt werden. Programmierer*innen in Diensten der Plattformen sollten regelmäßig in Sachen Barrierefreiheit auf einen aktuellen Stand gebracht werden, damit neue Funktionen direkt barrierefrei gedacht und in Code umgesetzt werden können. Barrierefreiheit sollte in der Ausbildung von ITler*innen (Studium und Beruf) in Lehr- und Studienpläne grundsätzlich enthalten sein!
Kein Ausblenden/ Banning von Menschen mit Behinderung!
Junge User*innen kritisieren die Praxis einiger Netzwerke, Menschen mit Behinderung zu bannen (deren Beiträge auszublenden und nicht zu zeigen). Das Banning verstößt gegen den Gedanken der Inklusion und gegen die Vielfalt auf Plattformen. Grundlage sind meist Algorithmen, die in ihrer Anlage Diversität zu wenig abbilden und Inklusion behindern.
Menschenwürdiges Miteinander
Ich kann Hetzer*innen einfach, schnell und dauerhaft in allen Netzwerken blockieren.
Hetzer*innen in allen Sozialen Netzwerken müssen einfach und schnell blockiert werden können. Hate Speech, Beleidigungen und Bedrohungen dürfen nicht einfach hingenommen werden. Hass ist ein politisches Mittel und wird als solches gezielt eingesetzt. Durch organisierte Shitstorms von kleinen Gruppen, auch Silencing genannt, sollen Menschen mundtot gemacht werden. Das Gleichgewicht von Meinungen ist somit online ungleich verteilt.
Ich kann digitale Gewalt anzeigen, Strafverfolgung auslösen und nachverfolgen.
Nur was von User*innen gemeldet wird, kann verfolgt werden. Deswegen ist es wichtig, digitale Hassrede und Gewalt zur Anzeige zu bringen. Sinnvoll ist das Einrichten einer bundesweiten Anzeigemöglichkeit für digitale Straftaten. Hier muss nachvollziehbar sein, was mit einer Anzeige in der Folge passiert. Polizei und Strafverfolgungsbehörden müssen entsprechend geschult werden, um auf die Besonderheiten des Digitalen angemessen reagieren zu können.
Ich kann Kommentare löschen oder die Kommentarfunktion blockieren.
Eine „Notaus“-Option für Negativkommentare kann helfen, Hasswellen abzuschalten. Zudem braucht es einfachere Möglichkeiten, Hasskommentare spurlos zu löschen oder die Kommentarfunktion unter Beiträgen von vornherein zu deaktivieren.
Schutz und Hilfe (Awareness)
Ich kann einfach gerichtssichere Bildschirmfotos als Beweis bei digitaler Gewalt speichern.
Die Beweissicherung bei digitalen Inhalten ist schwierig. Kommentare können wieder gelöscht werden und Screenshots sind nicht zwingend gerichtsfest. Eine Lösung: Plug-Ins für den Browser, mit denen sich rechtssichere Bildschirmfotos erzeugen lassen. Zudem braucht es Möglichkeiten der anonymen Anzeige, die bisher nur in einigen Bundesländern möglich ist.
Ich kann mich sicher und angstfrei in Online-Räumen bewegen und erhalte Unterstützung durch Hilfs- und Schutzangebote.
Für Hilfs- und Schutzangebote muss eine höhere Awareness geschaffen werden. Neben neutralem Aufklärungsmaterial für Schule und Jugendarbeit haben auch die Plattformen eine Pflicht zur Transparenz. Info-Boxen, wie es sie schon unter ausgewählten YouTube-Videos gibt, können eine Möglichkeit sein.
Community-Guidelines und Netiquette als Präventivmaßnahme in Foren und Online-Räumen!
Community Guidelines können Foren und andere Online-Räume sicherer machen, indem sie - bestenfalls demokratische - Regeln für den allgemeinen Umgang festlegen. Auch Netiquette dienen in diesem Sinne als Präventivmaßnahme und können den Ausschluss von User*innen oder bestimmten Kommentaren rechtfertigen, ohne die allgemeine Meinungsfreiheit zu gefährden.
Gesellschaftliche Kontrolle
Ich kann faktenbasierte Inhalte pushen und unseriöse Beiträge mit Warnhinweisen versehen.
Junge User*innen wollen eine höhere Sichtbarkeit für vertrauenswürdige Inhalte und Inhalten, die auf überprüfbare Fakten basieren. Eine Idee: Eine Voting-Funktion, um faktenbasierten Inhalten per Abstimmung höhere Sichtbarkeit einzuräumen im Vergleich zu Fake News oder Werbung. Der Haken ist, dass auch eine kleine organisierte Gruppe an Trollen Abstimmungen zu ihren Gunsten manipulieren kann. Unseriöse Beiträge sollen mit Warnhinweisen versehen werden können.
Moderator*innen haben die Regeln der Community im Blick.
Moderator*innen in Online-Räumen sollten demokratisch bestimmt und kontrolliert werden können. Sie sollen verhindern, dass in Netzwerken und Foren Diskussionen und Inhalte verzerrt werden. Manipulationen von kleinen organisierten Gruppen müssen erkennbar sein.
Ich kann bei Beiträgen Quellen gesondert angeben und bei anderen einen Faktencheck machen.
In Beiträgen müssen Quellenangaben einfacher möglich sein, um so Beiträge von User*innen besser überprüfen zu können. Quellenangaben sollten keinen Einfluss auf die begrenzten Zeichenzahlen haben.
Zusätzlich könnten Qualitätssiegel, analog zu anderen Bereichen des Verbraucher*innenschutzes, online für Klarheit und Sicherheit sorgen. Junge User*innen wollen eine Möglichkeit, freiwillig um einen Faktencheck ihrer Beiträge durch die Community zu bitten. Ab einer gewissen Reichweite in einem sozialen Netzwerk soll die Überprüfung und Verifizierung von Inhalten verpflichtend sein.
Gemeinsame Verantwortung
Soziale Netzwerke als Teil des öffentlichen Raums sollen durch Zivilgesellschaft kontrolliert werden.
Debatten in Sozialen Netzwerken prägen den öffentlichen Raum. Junge User*innen sehen ihre Verantwortung und erwarten sowohl von Politik als auch Plattformen, dass sie verantwortlich handeln. Alle gemeinsam müssen die Regeln aushandeln, festlegen und prüfen. Die Zivilgesellschaft sollte im Sinne einer Medienaufsicht Anbieter sozialer Plattformen als private und kommerzielle Akteure kontrollieren können.
Kleine Netzwerke mit offenen und transparenten Standards müssen durch öffentliche Mittel gestärkt werden.
Junge User*innen können der Marktmacht der großen Plattformen wenig entgegensetzen. Damit zivilgesellschaftlich geregelte, transparente und kontrollierte Alternativen entstehen und wachsen können, brauchen sie Unterstützung aus öffentlichen Mitteln – entsprechend dem Prinzip öffentliches Geld, öffentliches Gut.
Erwartung
Nach der Übergabe der Leitlinien an das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) werden die Anbieter die Forderungen junger Verbraucher*innen erhalten. Sie sollen als Basis für ein Nachsteuern dienen und deutlich machen, dass junge Menschen viel mehr in den Weiterentwicklungsprozess von sozialen Netzwerken und Plattformen einbezogen werden.
Hintergund
Politik und Anbieter sozialer Netzwerke und Plattformen sind damit aufgefordert, diese Leitlinien als Basis für ein Nachsteuern einzusetzen, junge Menschen viel mehr in den Weiterentwicklungsprozess von sozialen Netzwerken und Plattformen einzubeziehen.
Die Themen und Schwerpunkte wurden in einem Barcamp von jungen Menschen selbst gesetzt. In Workshops mit Expert*innen vertieften sie die Themen und formulierten miteinander Leitlinien für jugendgerechte Netzwerke. Der Deutsche Bundesjugendring als Interessenvertretung von Kindern und Jugendlichen brachte Positionen und Forderungen von rund sechs Millionen jungen Menschen ein.
Das Projekt wurde vom Deutschen Bundesjugendring umgesetzt und vom Bundesministerium der Justiz und für Verbraucherschutz gefördert.