Medien- und Digitalpolitik

Leitlinien für jugendgerechte soziale Netzwerke

Im Projekt „Social Digital Responsibility: Jungen Verbraucher*innen eine Stimme für aktive Teilhabe an Netzwerken und Plattformen geben“ haben junge Menschen Forderungen und Leitlinien für jugendgerechte Soziale Netzwerke und Plattformen formuliert.

Zur Aufzeichnung der Übergabe der Forderungen an das BMJV am 20.08.21 mit Dolmetscher*innen für Deutsche Laut- und Gebärdensprache: vimeo.com/user140716875/review/589375197/ec121bd0a1

(Daten-) Souveränität

Ich kann über meine Daten selbst bestimmen!

Junge Verbraucher*innen fordern Einstellungen, die Datensouveränität garantieren. Sie wollen selbst entscheiden, welche Daten sie wann und wem preisgeben. Ein gutes und sicheres Nutzen des Angebotes muss auch ohne Abgabe persönlicher Daten über das technisch und gesetzlich Notwendige hinaus möglich sein.

Ich weiß jederzeit, was mit meinen Daten und Bildern passiert!

Junge Verbraucher*innen wollen jederzeit abfragen  können, wann welche Daten abgegeben wurden und was damit passiert. Eine solche Funktion muss gut sichtbar, der Zeitraum zur Rückmeldepflicht kurz (zum Beispiel 24 Stunden) und klar definiert sein. Die Rückmeldung muss  verständlich aufbereitet und nicht zu „technisch“ sein.

Zusätzlich sollen Plattformbetreiber explizit um Erlaubnis bitten, wenn sie  Bilder weiter nutzen wollen. Sie müssen nachvollziehbar machen, welchen Weg das Bild durch das Netz nimmt. User*innen wollen ihr Recht am Bild auch rückwirkend geltend machen.

Ich kann meine Daten schnell und einfach löschen!

Junge User*innen wollen ihre Bilder und Daten einfach  löschen können. Bislang verhindern die AGB der Plattformen das oft. Sie höhlen zum Beispiel das Recht am eigenen Bild aus und minimieren die Chance, Bilder zu löschen.

Transparenz

Ich kann einfacher nachvollziehen, warum mir Beiträge und Inhalte angezeigt werden und Einfluss auf die Auswahl nehmen.

Junge Menschen wollen sehen und verstehen können, warum ihnen Beiträge und Inhalte vorgeschlagen oder angezeigt werden. Sie wollen selbst entscheiden können, dass sie keinen algorithmisch erzeugten Feed bekommen. Stattdessen einen, den sie bewusst selbst wählen. Dazu sollen eigene Suchverläufe nicht gespeichert werden, wenn jemand das nicht will.

Unter kontroversen Beiträgen kann ich Hinweise auf seriöse Quellen aus Medien und Behörden sehen.

Wer sich innerhalb einer Echokammer oder Bubble bewegt, soll sehen können und angezeigt bekommen, was zuverlässige Quellen auf journalistischer Grundlage oder  Behörden und Wissenschaft zum Thema sagen.

Höhere Kontrolle mit Blick auf Intransparenz und Marktmacht. Zugang zu Daten für Aufsichtsbehörden, Zivilgesellschaft und Wissenschaft.

Wissenschaft muss Zugang zu anonymisierten Daten der Netzwerke und Plattformen erhalten, um die Prozesse und Entwicklungen zu erforschen. Bisher geschieht das zu wenig oder wird zu aufwändig gestaltet. Dienste müssen aber überprüfbar sein. Unabhängige Wissenschaft kann und soll eine zentrale Rolle dabei spielen. Außerdem müssen Schnittstellen geschaffen werden, mit denen eine Beobachtung durch Aufsichtsbehörden und Zivilgesellschaft selbst möglich wird - ergänzend zur Wissenschaft.

Der Wechsel zwischen Netzwerken muss offen und interoperabel sein.

In der Interoperationalität liegt eine Chance für mehr Transparenz und Souveränität der User*innen. Es entstehen offene Schnittstellen. Jede*r kann von jedem Anbieter mit anderen Personen Kontakt aufnehmen.
Junge User*innen wollen selbst entscheiden, welche Plattformen sie unterstützen und nutzen wollen. Bislang ist ein Wechsel zwischen Netzwerken und Diensten nur möglich, wenn alle im Freundeskreis mitziehen und mitwechseln.

Diversität und Inklusion

Barrierefreiheit ist Standard und Bilder haben Alternativ-Texte.

Videos ohne Untertitel oder Bilder ohne hinterlegten Alternativen Text (ALT) sind für Menschen mit Einschränkungen in sozialen Netzwerken kaum oder gar nicht wahrnehmbar. Betriebssysteme und auch Plattformen bieten zwar Assistenz-Systeme, sie sind aber nicht selbstverständlich und teilweise - je nach Netzwerk - nicht kompatibel. Das schränkt junge Menschen mit Behinderung ein. Barrierefreiheit muss Standard sein.

Zum Beispiel: Zur Grundeinstellung gehört, dass jedes Bild beim Hochladen mit einem ALT-Text beschrieben werden muss.

Barrierefreie Inhalte erzielen eine höhere Reichweite!

Barrierefreie Inhalte müssen eine höhere Reichweite erzielen und von den Algorithmen bevorzugt werden. Programmierer*innen in Diensten der Plattformen sollten  regelmäßig in Sachen Barrierefreiheit auf einen aktuellen Stand gebracht werden, damit neue Funktionen direkt barrierefrei gedacht und in Code umgesetzt werden können. Barrierefreiheit sollte in der Ausbildung von ITler*innen (Studium und Beruf) in Lehr- und Studienpläne grundsätzlich enthalten sein!

Kein Ausblenden/ Banning von Menschen mit Behinderung!

Junge User*innen kritisieren die Praxis einiger Netzwerke, Menschen mit Behinderung zu bannen (deren Beiträge auszublenden und nicht zu zeigen). Das Banning verstößt gegen den Gedanken der Inklusion und gegen die  Vielfalt auf Plattformen. Grundlage  sind meist Algorithmen, die in ihrer Anlage Diversität zu wenig abbilden und Inklusion behindern.

Menschenwürdiges Miteinander

Ich kann Hetzer*innen einfach, schnell und dauerhaft in allen Netzwerken blockieren.

Hetzer*innen in allen Sozialen Netzwerken müssen einfach und schnell blockiert werden können. Hate Speech, Beleidigungen und Bedrohungen dürfen nicht einfach hingenommen werden. Hass ist ein politisches Mittel und wird als solches gezielt eingesetzt. Durch organisierte Shitstorms von kleinen Gruppen, auch Silencing genannt, sollen Menschen mundtot gemacht werden. Das Gleichgewicht von Meinungen ist somit online ungleich verteilt.

Ich kann digitale Gewalt anzeigen, Strafverfolgung auslösen und nachverfolgen.

Nur was von User*innen gemeldet wird, kann  verfolgt werden. Deswegen ist es wichtig, digitale Hassrede und Gewalt zur Anzeige zu bringen. Sinnvoll ist das Einrichten einer bundesweiten Anzeigemöglichkeit für digitale Straftaten. Hier muss nachvollziehbar sein, was mit einer Anzeige in der Folge passiert. Polizei und Strafverfolgungsbehörden müssen entsprechend geschult werden, um auf die Besonderheiten des Digitalen angemessen reagieren zu können.

Ich kann Kommentare löschen oder die Kommentarfunktion blockieren.

Eine „Notaus“-Option für Negativkommentare kann helfen, Hasswellen abzuschalten. Zudem braucht es einfachere Möglichkeiten, Hasskommentare spurlos zu löschen oder die Kommentarfunktion unter Beiträgen von vornherein zu deaktivieren.

Schutz und Hilfe (Awareness)

Ich kann einfach gerichtssichere Bildschirmfotos als Beweis bei digitaler Gewalt speichern.

Die Beweissicherung bei digitalen Inhalten ist schwierig. Kommentare können wieder gelöscht werden und Screenshots sind nicht zwingend gerichtsfest. Eine Lösung: Plug-Ins für den Browser, mit denen sich rechtssichere Bildschirmfotos erzeugen lassen. Zudem braucht es Möglichkeiten der anonymen Anzeige, die bisher nur in einigen Bundesländern möglich ist.

Ich kann mich sicher und angstfrei in Online-Räumen bewegen und erhalte Unterstützung durch Hilfs- und Schutzangebote.

Für Hilfs- und Schutzangebote muss eine höhere Awareness geschaffen werden. Neben neutralem Aufklärungsmaterial für Schule und Jugendarbeit haben auch die Plattformen eine Pflicht zur Transparenz. Info-Boxen, wie es sie schon unter ausgewählten YouTube-Videos gibt, können eine Möglichkeit sein.

Community-Guidelines und Netiquette als Präventivmaßnahme in Foren und Online-Räumen!

Community Guidelines können Foren und andere Online-Räume sicherer machen, indem sie - bestenfalls demokratische - Regeln für den allgemeinen Umgang festlegen. Auch Netiquette dienen in diesem Sinne als Präventivmaßnahme und können den Ausschluss von User*innen oder bestimmten Kommentaren rechtfertigen, ohne die allgemeine Meinungsfreiheit zu gefährden.

Gesellschaftliche Kontrolle

Ich kann faktenbasierte Inhalte pushen und unseriöse Beiträge mit Warnhinweisen versehen.

Junge User*innen wollen eine höhere Sichtbarkeit für vertrauenswürdige Inhalte und Inhalten, die auf überprüfbare Fakten basieren. Eine Idee: Eine Voting-Funktion, um faktenbasierten Inhalten per Abstimmung höhere Sichtbarkeit einzuräumen im Vergleich zu Fake News oder Werbung. Der Haken ist, dass auch eine kleine organisierte Gruppe an Trollen Abstimmungen zu ihren Gunsten manipulieren kann. Unseriöse Beiträge sollen mit Warnhinweisen versehen werden können.

Moderator*innen haben die Regeln der Community im Blick.

Moderator*innen in Online-Räumen sollten demokratisch bestimmt und kontrolliert werden können. Sie sollen verhindern, dass in Netzwerken und Foren Diskussionen und Inhalte verzerrt werden. Manipulationen von kleinen organisierten Gruppen müssen  erkennbar sein.

Ich kann bei Beiträgen Quellen gesondert angeben und bei anderen einen Faktencheck machen.

In Beiträgen  müssen Quellenangaben einfacher möglich sein, um so Beiträge von User*innen besser überprüfen zu können.  Quellenangaben sollten keinen Einfluss auf die begrenzten Zeichenzahlen haben.
Zusätzlich könnten Qualitätssiegel, analog zu anderen Bereichen des Verbraucher*innenschutzes,  online für Klarheit und Sicherheit sorgen. Junge User*innen wollen eine Möglichkeit, freiwillig um einen Faktencheck ihrer Beiträge durch die Community zu bitten. Ab einer gewissen Reichweite in einem sozialen Netzwerk soll die Überprüfung und Verifizierung von Inhalten verpflichtend sein.

Gemeinsame Verantwortung

Soziale Netzwerke als Teil des öffentlichen Raums sollen durch Zivilgesellschaft kontrolliert werden.

Debatten in Sozialen Netzwerken prägen den öffentlichen Raum. Junge User*innen sehen ihre Verantwortung und erwarten sowohl von Politik als auch Plattformen, dass sie verantwortlich handeln. Alle gemeinsam müssen die Regeln aushandeln, festlegen und prüfen. Die Zivilgesellschaft sollte im Sinne einer Medienaufsicht Anbieter sozialer Plattformen als private und kommerzielle Akteure kontrollieren können.

Kleine Netzwerke mit offenen und transparenten Standards müssen durch öffentliche Mittel gestärkt werden.

Junge User*innen können der Marktmacht der großen Plattformen wenig  entgegensetzen. Damit zivilgesellschaftlich geregelte, transparente und kontrollierte Alternativen entstehen und wachsen können, brauchen sie Unterstützung aus öffentlichen Mitteln – entsprechend dem Prinzip öffentliches Geld, öffentliches Gut.

Erwartung

Nach der Übergabe der Leitlinien an das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) werden die Anbieter die Forderungen junger Verbraucher*innen erhalten. Sie sollen als Basis für ein Nachsteuern dienen und deutlich machen, dass junge Menschen viel mehr in den Weiterentwicklungsprozess von sozialen Netzwerken und Plattformen einbezogen werden.

Hintergund

Politik und Anbieter sozialer Netzwerke und Plattformen sind damit aufgefordert, diese Leitlinien als Basis für ein Nachsteuern einzusetzen, junge Menschen viel mehr in den Weiterentwicklungsprozess von sozialen Netzwerken und Plattformen einzubeziehen.

Die Themen und Schwerpunkte wurden in einem Barcamp von jungen Menschen selbst gesetzt. In Workshops mit Expert*innen vertieften sie die Themen und formulierten miteinander Leitlinien für jugendgerechte Netzwerke. Der Deutsche Bundesjugendring als Interessenvertretung von Kindern und Jugendlichen brachte Positionen und Forderungen von rund sechs Millionen jungen Menschen ein.

Das Projekt wurde vom Deutschen Bundesjugendring umgesetzt und vom Bundesministerium der Justiz und für Verbraucherschutz gefördert.

Themen: Medien- und Digitalpolitik