Medien- und Digitalpolitik

Wie gesellschaftliche Kontrolle von Online-Räumen gelingen kann

Wie können soziale Netzwerke durch die Gesellschaft besser reguliert und kontrolliert werden? Darüber haben junge Menschen im Workshop unseres Projektes „Social Digital Responsibility“ diskutiert.

Soziale Netzwerke und Online-Plattformen sind für junge Menschen Lebensrealität. Sie wollen dort sicher unterwegs sein, sich austauschen und informieren. Doch was passiert, wenn die Inhalte zunehmend durchsetzt sind von Fake News, Desinformation, Schleichwerbung und Marketing? Wie kann dem begegnet und wie eine gesellschaftliche Kontrolle von Online-Räumen gewährleistet werden?

Wo Manipulation anfängt, endet persönliche Kontrolle. Das machte Philipp Lorenz-Spreen vom Max-Planck-Institut für Bildungsforschung in seinem Impulsvortrag deutlich. Bei der Flut an Informationen im digitalen Raum ist oftmals schwerlich zu erkennen ist, ob ein Beitrag neutral ist – oder ob dahinter nicht kommerzielle oder manipulative Absichten stehen. Dazu kommen intransparente Sortierungen der Inhalte sowie Algorithmen, die negative Nachrichten priorisieren. Zusammen sorgt das für einen Kontrollverlust der User*innen.

Im Workshop diskutierten die Teilnehmenden Lösungsvorschläge und Ideen, wie digitale Netzwerke stärker demokratisch reguliert und überwacht werden können. Dabei wurde deutlich, dass Plattformen durch ihre Struktur und die Bereitstellung von Tools die Kontrolle durch die Community ermöglichen können. Beispielsweise können Voting-Funktionen dafür sorgen, dass positiven und vertrauenswürdigen Inhalten per Abstimmung höhere Sichtbarkeit eingeräumt wird als Fake News oder Werbung. Allerdings muss hier darauf geachtet werden, dass nicht eine kleine organisierte Gruppe an Trollen Abstimmungen zu ihren Gunsten manipuliert.

Als weitere Möglichkeit zur Einordnung von Beiträgen wurde die Moderation genannt. Eine als Moderator*in bestimmte Person kann in Foren kontrollieren, ob die Regeln der Community eingehalten werden und problematische Inhalte im Zweifel markieren oder sperren. Hier ist die Herausforderung, die Moderator*innen demokratisch zu bestimmen und zu kontrollieren.

Qualitätssiegel könnten, analog zu anderen Bereichen des Verbraucher*innenschutzes, auch online für Klarheit und Sicherheit sorgen. User*innen hätten dann etwa die Möglichkeit, freiwillig um einen Faktencheck ihrer Beiträge durch die Community zu bitten. Ab einer gewissen Reichweite in einem sozialen Netzwerk könnte die Überprüfung und Verifizierung von Inhalten verpflichtend sein.

Diskutiert wurde auch, ob eine Klarnamenpflicht oder die Notwendigkeit einer Account-Verifizierung einen Beitrag zur gesellschaftlichen Kontrolle leisten können. Die Teilnehmenden erkannten ein zweischneidiges Schwert: Einerseits ist es hilfreich, Inhalte einer realen Person nachvollziehbar zuordnen zu können. Insbesondere Personen hinter Accounts mit großer Reichweite können so im Zweifel haftbar gemacht werden. Allerdings kann Anonymität auch Menschen schützen und sie ermutigen, an Diskursen teilzunehmen, ohne Angst vor Hass und Angriffen haben zu müssen. Auch bedeutet ein verifizierter Account nicht immer, dass von dort aus keine problematischen Inhalte verbreitet werden. Im Gegenteil kann eine solche Nachvollziehbarkeit die Inhalte sogar authentischer und reichweitenstärker machen.

Die Teilnehmer*innen formulierten konkrete Forderungen, um die gesellschaftliche Kontrolle von Online-Plattformen zu ermöglichen und zu erleichtern: In Beiträgen auf Social Media müssen Quellenangaben einfacher möglich sein, um so Beiträge von User*innen besser überprüfen zu können. Denkbar ist ein extra Feld dafür, zudem sollten Quellen keinen Einfluss auf begrenzte Zeichenzahlen haben.

In Netzwerken und Foren muss zudem nachvollziehbar sein, inwiefern Diskussionen und Inhalte verzerrt werden. Manipuliert etwa eine kleine organisierte Gruppe den Diskurs gegenüber einer passiven Mehrheit, muss das erkennbar sein. Moderator*innen in Online-Räumen sollten demokratisch bestimmt und kontrolliert werden können.

Einig waren sich die Teilnehmenden, dass Plattformen, Gesetzgeber und User*innen eine gemeinsame Verantwortung tragen. Alle agieren in einem öffentlichen Raum, deren Spielregeln gemeinsam festgelegt und angepasst werden können. Die Politik muss Rahmenbedingung schaffen und die Möglichkeit herstellen, dass die Zivilgesellschaft sich selbst regulieren kann. Soziale Plattformen bzw. deren Betreiber*innen müssen anerkennen, dass sie Teil des öffentlichen Raums sind – und keine privaten, rein kommerziellen Orte.

Im weiteren Prozess des Projektes „Social Digital Responsibility: Jungen Verbraucher*innen eine Stimme für aktive Teilhabe an Netzwerken und Plattformen geben“ werden aus den Workshops Leitlinien für jugendgerechte soziale Netzwerke. Im Workshop am 27.07.21 von 17:30-19:30 Uhr geht es darum, wie junge Menschen online besser geschützt werden können (hier anmelden).

Zusätzlich können alle, die sich digital an den Leitlinien beteiligen wollen, das ePartool unseres Projektes nutzen, um Ideen, Anregungen und konkrete Vorschläge für jugendgerechte soziale Nezuwerke beizutragen.

Themen: Medien- und Digitalpolitik