Deutscher Bundesjugendrings beteiligt sich an Konsultation der EU-Kommission zum Digital Fairness Act (DFA)
Shahadat Rahman / unsplash
Der Bundesjugendring hat im Rahmen der Konsultation eine Stellungnahme veröffentlicht.
Stellungnahme des Deutschen Bundesjugendrings (DBJR) zur Konsultation der EU-Kommission zum Digital Fairness Act (DFA)
Leitlinie des DBJR
Digitalpolitik ist Jugend- und Gesellschaftspolitik. Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital. Maßstab ist die DBJR Position „Digitale Teilhabe gerecht gestalten – an, in und durch digitale Räume“: Safety-by-Design statt pauschaler Zugangsbeschränkungen, Schutz anonymer „safer spaces“, Vorrang von Datenschutz vor Werbeinteressen, Barrierefreiheit und diskriminierungskritisches Design, Förderung von Medienkompetenz sowie die Anerkennung digitaler Räume als Orte von Bildung, Beteiligung und Kultur.
1) Verbindliche Verbote manipulativer Gestaltung und faire Wahlarchitekturen
Der DBJR unterstützt ein klares Verbot von Dark Patterns in allen Phasen der Nutzung – von Registrierung und Einwilligung bis zu Kündigung und Opt-out. Dazu zählen manipulative Einwilligungsprozesse, „Confirmshaming“, „Roach Motels“ und „Drip Pricing“.
Ergänzend braucht es Positivpflichten: ebenso einfache Kündigungswege („as easy to cancel as to sign up“), datensparsame Voreinstellungen und kurze, verständliche Informationen.
2) Schutz vor ausnutzender Personalisierung und Profiling – besonders für Minderjährige und junge Erwachsene
Der DFA sollte Profiling-basierte Beeinflussung, die gezielt die Vulnerabilität junger Menschen anspricht (z. B. durch endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken), untersagen bzw. strengen Pflichten unterwerfen.
Werbung und Personalisierung dürfen junge Menschen nicht zur Preisgabe von Daten drängen; Datenschutz muss Vorrang vor Werbeinteressen haben.
3) Influencer-Marketing: klare Pflichten und Plattformverantwortung
Kennzeichnungspflichten für bezahlte Inhalte und kommerzielle Beziehungen sowie leicht zugängliche Beschwerdemechanismen müssen EU-weit verbindlich geregelt werden. Plattformen sind in die Pflicht zu nehmen, gegen Schleichwerbung und irreführende Inhalte vorzugehen.
4) Safety-by-Design statt Pauschalverboten, Altersverifikation oder Klarnamenpflicht
Der DFA sollte jugendgerechte Standard-Einstellungen, sichere Melde- und Hilfestrukturen, Schutzmechanismen ohne Overblocking und barrierearme Benutzerführung vorschreiben – ohne pauschale Altersverifikations- oder Klarnamenpflichten, die Teilhabe- und Schutzrechte einschränken und Anonymität in „safer spaces“ untergraben.
5) Barrierefreiheit und Antidiskriminierung als Querschnittspflichten
Über Mindeststandards hinaus braucht es regelmäßige Accessibility-Audits, Nutzung einfacher Sprache und die verbindliche Einbindung von Expert*innen mit Behinderung in Design- und Testphasen.
6) Jugend-Impact-Assessments und Co-Design
Für Produkte und Funktionen mit hoher Reichweite unter jungen Nutzer*innen sollten verpflichtende Jugend-Folgenabschätzungen gelten – inklusive der Beteiligung junger Menschen und Jugendverbände im Co-Design sowie transparenter Risikominderungspläne. Das stärkt Befähigung neben Schutz.
7) Durchsetzung, Kohärenz und Transparenzberichte
Der DFA braucht klare Aufsichtszuordnungen, wirksame Sanktionen und jährliche Transparenzberichte der Anbieter über Änderungen in Design und Entscheidungsarchitektur mit Auswirkungen auf Fairness und Jugendschutz.
Er muss Lücken im bestehenden Rechtsrahmen schließen und kohärent mit DSA, DMA, DSGVO und AI Act ausgestaltet werden.
8) Flankierend: Zugang, Open-Source und Medienkompetenz stärken
Rechtliche Fairness entfaltet Wirkung nur bei gesichertem Zugang (Endgeräte, Konnektivität), offenen und vertrauenswürdigen Technologien (freie Software) sowie systematischer Förderung von Medienkompetenz in Schule, Jugendhilfe und außerschulischer Bildung. Diese strukturellen Bedingungen liegen zwar außerhalb des DFA-Kerns, erhöhen aber Wirksamkeit und Akzeptanz.
Fazit
Der Digital Fairness Act ist eine zentrale Chance, digitale Umgebungen so zu gestalten, dass sie junge Menschen nicht manipulieren, sondern befähigen. Er sollte manipulative Gestaltung verbieten, Safety-by-Design und Barrierefreiheit verbindlich machen, ausnutzende Personalisierung begrenzen, Influencer-Marketing jugendgerecht regulieren, anonyme „safer spaces“ schützen und die Aufsicht wirksam stärken – im Einklang mit bestehendem EU-Recht und den Zielen des DBJR nach Schutz, Teilhabe und Befähigung junger Menschen.