Um Demokratie und Jugendschutz im digitalen Raum zu verteidigen, braucht es eine effektivere Regulierung und Aufsicht digitaler Plattformen. Nur dann können alle Menschen ihre Grundrechte überhaupt wirksam ausüben.

Dieser Artikel ist ein Impuls auf Grundlage des Fachgespräch „Zukunft der Plattformaufsicht - wie kommen wir zu einer wirksamen Durchsetzung in der digitalen Medienwelt?“ im Juni 2025.
Das Internet und die auf ihm aufbauenden Plattformen, digitalen Dienste und sozialen Medien nehmen eine zentrale Rolle im gesellschaftlichen Alltag und dem Wandel von Öffentlichkeiten ein. Immer mehr Altersgruppen nutzen den digitalen Raum und digitale Anwendungen zur Unterhaltung, Informationsbeschaffung und Meinungsbildung. Seitdem große Sprachmodelle für die Allgemeinheit einfach verfügbar sind, reihen sich auch KI-Agenten in die neue Informations- und Medienwelt ein. Diese und weitere digitale Angebote haben das Potenzial, Menschen neue Kommunikationswege zu ermöglichen, zugänglichere Austauschformate zu schaffen und bislang vereinzelt bleibende Communities enger miteinander zu verknüpfen.
Allerdings - die Herausforderungen bleiben trotz aller technologischen Neuerungen dieselben. Unzureichende Alterskontrollen und manipulative Designelemente, die zur möglichst langen Nutzung eines Dienstes anregen, können vor allem Kinder und Jugendliche unter psychischen Druck setzen. Die Plattformen öffnen einen leicht zugänglichen Raum für illegale, extremistische oder sachlich falsche Inhalte, manipulative Kommunikationsformen und emotionalisierende Ansprachen. Darüber hinaus bieten die Empfehlungssysteme, die auf Algorithmen basieren, Ansatzpunkte für (Des-)Informationskampagnen: Polarisierende Inhalte werden von den Empfehlungsalgorithmen bevorzugt, deshalb geraten ausgewogenere Stimmen in den Hintergrund. Das bedroht die Freiheitlichkeit der über die Plattformen stattfindenden Willens- und Meinungsbildung. Ein Risiko, das im Superwahljahr 2024 in zahlreichen Wahlkämpfen auf der ganzen Welt beobachtet werden konnte.
Deutschland und die Europäische Union haben in den letzten Jahrzehnten verschiedene Maßnahmen ergriffen, um diesen Herausforderungen durch Maßnahmen der sogenannten Plattformaufsicht zu begegnen. Insbesondere der Digital Services Act hat international große Aufmerksamkeit erfahren - besonders, weil auf seiner Grundlage Bußgelder gegen global agierende BigTech-Unternehmen angekündigt wurden. Trotzdem kritisieren politische und zivilgesellschaftliche Akteur*innen die aktuelle Situation als unzureichend: Die gesetzten Rahmenbedingungen würden nicht schnell und konsequent genug umgesetzt, weshalb die bislang angekündigten Maßnahmen noch bei weitem nicht für ein sicheres und vertrauenswürdiges Online-Umfeld sorgen würden. Stattdessen würden noch immer polemisierende Positionen mit problematischen Inhalten den digitalen Diskurs dominieren.
Ein komplexes Zusammenspiel von Akteur*innen und Rechtsakten
Was aber fehlt in Europa eigentlich zu einer effektiven Aufsicht über Online-Plattformen, digitale Dienste und soziale Medien? Wenn wir etwa aus der Perspektive des Kinder- und Jugendmedienschutzes oder dem Schutz vor Wahlmanipulation auf die Regulierung sehen, wird schnell vor allem der uneinheitliche Regelungszuschnitt deutlich: Da gibt es einerseits das Medien-und Presserecht, den Verbraucherschutz, den Kinder- und Jugend(medien)schutz. Hinzu kommen digitalpolitische Regelungsansätze, die auch in das Straf- oder Urheberrecht hinein reichen. Alle diese und weitere Rechtsakte spielen eine Rolle – auch dann, wenn der Schutz von Kindern und Jugendlichen oder die Abwehr von Wahlkampfmanipulation gar nicht immer im Mittelpunkt der Rechtsakte steht!
Deutlich wird das etwa beim bereits erwähnten europäischen Digital Services Act (im Folgenden: DSA): Nur die größten digitalen Dienstleistungsunternehmen werden hier überhaupt dazu angehalten, die Risiken ihrer Dienstleistungen für die Ausübung der Meinungs- und Informationsfreiheit, für Wahlprozesse und gesellschaftliche Debatten und für Kinder und Jugendliche zu analysieren und zu verringern. Im Mittelpunkt stehen stattdessen Regelungen dazu, wie Anbieter*innen von digitalen Dienstleistungen mit nach nationalem Recht rechtswidrigen Inhalten umzugehen haben. Aber: nicht alle manipulativen Inhalte, die etwa im Kontext von Wahlen als Desinformation diskutiert werden, sind straf-, wettbewerbs- oder urheberechtlich verboten. Erst, wenn eine Falschbehauptung etwa die Tatbestände der Beleidung, der Verleumdung oder der Volksverhetzung erreicht, kann die Desinformation als rechtswidriger Inhalt bewertet werden.
Die Folge der uneinheitlichen Regulierung ist ein komplexes Zusammenspiel von Zuständigkeiten und Aufsichtsstrukturen.
Die Folge der uneinheitlichen Regulierung ist ein komplexes Zusammenspiel von Zuständigkeiten und Aufsichtsstrukturen. Der DSA überträgt die rechtliche Verantwortung zunächst den einzelnen Anbieter*innen der Online-Plattformen und -Dienste. Diese genießen im Zuge ihrer allgemeinen Geschäftsbedingungen aber sehr große Gestaltungsfreiräume. Die Aufsicht über die Plattform-Anbieter*innen teilt sich die Europäische Kommission mit nationalen Stellen – in Deutschland mit der Bundesnetzagentur. Letztere bindet weitere Stellen ein - im Hinblick auf Kinder- und Jugendschutz sind das die Bundeszentrale für Kinder- und Jugendmedienschutz, das Bundeskriminalamt und die Datenschutzbehörden von Bund und Ländern. Darüber hinaus bestehen auf nationaler Ebene mit dem Medienstaatsvertrag und dem Jugendmedienschutz-Staatsvertrag zwei von den deutschen Bundesländern verantwortete und durch die Landesmedienanstalten durchgesetzte Rechtsakte, die eigene Vorschriften für digitale Inhalte vorsehen. Der Medienstaatsvertrag verpflichtet beispielsweise zur transparenten Erläuterung von algorithmenbasierten Anzeigeempfehlungen, während der Jugendmedienschutz-Staatsvertrag beispielsweise Schilderungen von grausamen Gewalttätigkeiten in Inhalten beschränkt, die an Kinder und Jugendliche gerichtet sind.
Das Zusammenspiel unterschiedlicher Akteur*innen auf europäischer, nationaler und regionaler Ebene ist nicht nur kompliziert: Es führt teils auch zu Problemen, weil die unterschiedlichen Handlungsbefugnisse, Prüfvoraussetzungen und Betrachtungsweisen mit ihren verschiedenen Rechtsrahmen zusätzliche Herausforderungen mit sich bringen. Aktuell zeigt sich das etwa an den womöglich widersprüchlichen Transparenzvorschriften aus DSA und Medienstaatsvertrag, die nun dem Europäischen Gerichtshof zur Klärung vorliegen.
Es muss endlich besser werden – aber wie?
Solche Verzögerungen und Unsicherheiten können zu Resignation führen - nicht nur bei zivilgesellschaftlichen Akteur*innen wie den vom DSA vorgesehenen Hinweisgeber*innen (Trusted Flaggers) und Streitbeilegungsstellen. Auch innerhalb der Aufsichtsbehörden kann die Komplexität der Plattformaufsicht frustrieren. Was also ist zu tun, um zu einer effektiveren Plattformaufsicht zu gelangen?
Immer wieder wird beispielsweise die Bündelung von Kompetenzen zum Beispiel bei einer zentralen Digitalagentur auf nationaler oder europäischer Ebene ins Spiel gebracht. Der Gedanke: Erst eine solche zentrale Aufsichtsbehörde habe überhaupt die Chance, hinreichende personelle und finanzielle Ressourcen vom Haushaltsgesetzgeber vorgesehen zu bekommen, um die Überwachung global agierender Dienste-Anbieter*innen sicherzustellen. Gegenstimmen heben hervor, dass durch eine Vielfalt von Kontrollinstanzen auch die Qualität der Aufsicht zunehmen könne: Gerade staatsferne Kontrollstellen wie die Landesmedienanstalten seien besonders gut dazu geeignet, eine wirksame und vertrauensbildende Aufsicht durchzuführen. Viel könne viel helfen – vorausgesetzt, dass die Zusammenarbeit der einzelnen Stellen gut koordiniert, Vorgehensweisen harmonisiert und Dokumentation vereinheitlicht würde.
Andere Stimmen heben hervor, dass viele Durchsetzungs- und Aufsichtsprobleme mit der faktischen Abhängigkeit von einigen wenigen Unternehmen zusammenhingen. Daher müssten im Zusammenhang der Plattformaufsicht auch die wettbewerbsrechtlichen Aufsichtsbefugnisse des Digital Markets Act stärker mitgedacht werden. Dazu gehöre aber auch die Unterstützung europäischer Infrastrukturen und die aktive Förderung europäischer Anbieter*innen von digitalen Diensten. Die Diskussion weist hier starke Überschneidungen zur debattierten digitalen Souveränität Europas. Unabhängig hiervon müsse angedacht werden, solche Alternativangebote stärker zu unterstützen, die beispielsweise stärker auf dezentrale Server- und Entscheidungsstrukturen aufbauen, weil auf diese Weise Durchsetzungsmöglichkeiten vereinfacht werden könnten. Auch die Unterstützung journalistischer Qualitätsmedien bei ihren Bemühungen um tragfähige Refinanzierungsmodelle im digitalen Informationsraum wird begrüßt. Diskutiert werden in diesem Kontext nicht zuletzt auch fiskalpolitische Maßnahmen wie eine europäische Digitalsteuer.
Wieder andere Stimmen sprechen sich vor allem für eine Weiterentwicklung der bestehenden Regelungsrahmen aus: Vorschriften zum Kinder- und Jugendschutz wie etwa Altersverifikationen nach Stand der Technik, klar definierte Zugangs- und Zeitbeschränkung sowie kindgerechte Meldestellen sollten verbindlicher Inhalt des Digital Services Acts werden. Dies gäbe letztlich allen Altersgruppen bessere Schutzmechanismen an die Hand. Auch brauche es eine rechtsverbindliche Definition der Begriffe Desinformation und Wahlmanipulation.
Kritiker*innen solcher Vorschläge sehen für Reformen derzeit keinen politischen Spielraum: der wirtschaftspolitische Druck aus der internationalen Politik dränge die Europäische Kommission stattdessen eher dazu, bestehende Regelungen zur Plattformaufsicht zu lockern.
Ein sicherer, vertrauenswürdiger digitaler Raum ist keine Verhandlungsmasse!
Es fällt schwer, in den genannten Stimmen einen breiten Konsens über erforderliche Reformen und Handlungsempfehlungen zu erkennen. Vermeintlich einfache Lösungen sind bei genauerem Hinsehen kaum zu erkennen – zu viele Perspektiven, Akteur*innen und Interessen müssen hier geordnet und berücksichtigt werden.
Allerdings besteht Einigkeit zumindest in einem Punkt: Der erreichte Status Quo der Plattformaufsicht darf nicht Verhandlungsmasse werden – auch und gerade nicht im Handelskonflikt mit den USA.
Ein Rückzug der Europäischen Union aus der Plattformaufsicht zugunsten besserer Handelsbedingungen mit den USA wäre ein fatales Signal.
Die Europäische Union und ihre Mitgliedstaaten haben mit ihren Bemühungen um eine effektive Plattformregulierung und Aufsichtsstruktur einen ehrgeizigen, aber auch notwendigen Versuch unternommen, die Teilhabe aller Menschen am gesellschaftlichen Leben auch im digitalen Raum zu öffnen und zu schützen. Die ökonomischen Perspektiven einzelner Tech-Unternehmen oder gar die Gewinnerwartungen ihrer milliardenschweren Eigentümer*innen können und dürfen deshalb keine Rechtfertigung dafür sein, auf die Durchsetzung von Menschenrechten, auf den Schutz von Kindern und Jugendlich oder auf die Verteidigung eines freiheitlichen und pluralistischen Informations- und Diskursraums zu verzichten.
Ein Rückzug der Europäischen Union aus der Plattformaufsicht zugunsten besserer Handelsbedingungen mit den USA wäre ein fatales Signal – insbesondere an demokratiefeindliche Kräfte im In- und Ausland. Pluralistischer Meinungsaustausch im Netz und freie Wahlen sind nicht verhandelbar.
Reale Risiken fordern konkrete Maßnahmen – und Dialog
Ein solches Zeichen von Schwäche darf sich das demokratische Europa in der gegenwärtigen globalpolitischen Situation nicht leisten. Erst im Dezember 2024 musste das rumänische Verfassungsgericht die im November abgehaltene Präsidentschaftswahl für ungültig erklären: Ein Kandidat habe wahlrechtswidrige digitale Technologien eingesetzt, und Hinweise würden auf aus dem Ausland manipulierte Anzeigealgorithmen in sozialen Netzwerken deuten. Die Europäische Kommission hatte daraufhin Ermittlungen gegen TikTok eingeleitet – Ausgang offen.
Fast zeitgleich beweisen etwa digitalpolitische Initiativen aus Australien, dass die Europäische Union mit ihren Bemühungen nicht alleine ist: Im November 2024 wurde dort ein Mindestalter von 16 Jahren für die Nutzung sozialer Medien eingeführt. Als Begründung wurde angeführt, dass Kinder und Jugendliche über digitale Dienste zu oft und einfach schädliche Inhalte wie Drogenmissbrauch, Pornographie oder gewalttätiges Material konsumieren könnten. Nach Anwendungen und Diensten wie Facebook, Instagram, Snapchat, TikTok und X soll ab Juli 2025 nun auch die Videoplattform YouTube für Kinder gesperrt werden. Die Initiative hat in Europa viel Aufmerksamkeit erregt – auch weil seit Juli 2025 in Großbritannien der Online Safety Act ähnlich strenge Maßnahmen zur Altersverifikation einfordert. Während nun einige Bundesländer mit einem Handyverbot ins neue Schuljahr starten, diskutieren Jugendliche und Eltern, Schulen und Politiker*innen kontrovers über Sinnhaftigkeit und Durchsetzbarkeit solcher und ähnlicher Regelungen.
Bei Plattformregulierung und Plattformaufsicht geht es um den Versuch, eine pluralistische, demokratische Gesellschaft im digitalen Zeitalter zu ermöglichen.
Meinungsfreiheit und Demokratie brauchen eine effektive Plattformaufsicht!
Diese sehr unterschiedlichen Beispiele zeigen: Die Debatte um eine effektive Aufsicht über digitale Dienste, Plattformen und soziale Medien findet in zahlreichen Themenkontexten statt. Sie lässt sich allenfalls verkürzt und damit unzureichend einzelnen Regelungsrahmen zuordnen. Denn weder Verbraucher- und Jugend(medien)schutz, noch das Wettbewerbs- oder das Medienrecht sind dafür geeignet, die gesamte Breite der Diskussion abzubilden.
Dabei ist es wichtig, sich der großen Bedeutung des Themas klar zu sein: Bei Plattformregulierung und Plattformaufsicht geht es um den Versuch, eine pluralistische, demokratische Gesellschaft im digitalen Zeitalter zu ermöglichen. Die Demokratie des Grundgesetzes garantiert nämlich nicht nur jeder Person ihre Freiheiten und Rechte, sondern fordert zugleich einen gesicherten Raum der freien und offenen Meinungs- und Willensbildung ein. Um diesen vor Manipulation und Verzerrungen zu schützen und eine grundrechtewahrende Kommunikationsinfrastruktur zu garantieren, sind durch Gesellschaft und Staat institutionelle und verfahrensrechtliche Vorkehrungen zu treffen - gerade im von immer mehr Menschen genutzten digitalen Raum! Nicht zuletzt gehört hierzu auch eine angemessene personelle Ausstattung der Aufsichtsbehörden.
Einseitige Eingriffe wie beispielsweise die durch den Tech-Milliardär Elon Musk veranlasste Anpassung der Empfehlungsalgorithmen seiner Plattform X im Kontext der Bundestagswahl 2025 stehen hierzu im Widerspruch. Ziel des Grundgesetzes und damit auch der Plattformaufsicht ist stattdessen die Absicherung einer kommunikativen Chancengerechtigkeit auf dem Meinungsmarkt. Hierzu gehört auch eine effektive Reaktion auf manipulative oder gefährdende Inhalte. Denn erst, wenn der digitale Informations- und Diskursraum sicher, frei zugänglich und vertrauenswürdig ist, können alle Menschen ihre Grundrechte überhaupt wirksam ausüben.
Statt sich von Vorwürfen der staatlich verordneten Meinungskontrolle oder Zensur treiben zu lassen, sollten die Europäische Kommission und die Europäischen Mitgliedsstaaten deshalb selbstbewusst den eigenen Wertekanon und Verfassungskonsens verteidigen: Es besteht Raum und Anlass für ein eigenes, europäisches Narrativ, das durch effektive Regulierung und Aufsicht auch gegenüber global agierenden Akteur*innen durchgesetzt werden muss.
Redaktion: Dr. Katja Berg und Henry Steinhau / iRights.Lab, August 2025
Dieser Artikel erschien zuerst hier: www.boell.de