Home: Maucher Jenkins

Intellectual Property

Intellectual
Property

Patents | Trade Marks | Designs

Anmerkungen

EU-Kommission eröffnet erstes Verfahren nach dem DSA gegen X

Datum: 29 Dezember 2023

„Mit dem DSA ist die Zeit der großen Online-Plattformen, die sich so verhalten, als seien sie zu groß um sich darum zu kümmern, zu Ende“, schreibt EU-Kommissar Thierry Breton als Reaktion auf die Eröffnung eines Verfahrens der EU-Kommission gegen X (ehemals Twitter). Der Social Media-Dienst X stand schon mehrmals unter Verdacht, nicht ausreichend gegen Fake News und Hate Speech auf der Plattform vorzugehen. Zuletzt gab es Untersuchungen zur Verbreitung illegaler Inhalte im Zusammenhang mit schlägen der Hamas gegen Israel. Nun wurde gegen X das erste förmliche Verfahren nach dem Digital Service Act (DSA) eröffnet, da X „illegale Inhalte“ geteilt und gegen Transparenzpflichten aus dem DSA verstoßen haben soll. Der DSA, eine neue und weitreichende EU-Verordnung zur Plattformregulierung, sieht verschärfte Verpflichtungen für Online-Plattformen vor, gegen illegale und schädliche Inhalte im Internet vorzugehen, die bei Verstößen Bußgelder in Höhe von bis zu sechs Prozent des weltweiten Jahresumsatzes des Plattformbetreibers nach sich ziehen können. Dass bei großen Tech-Unternehmen von Beträgen in Milliardenhöhe die Rede sein kann, versteht sich von selbst. Nun soll ermittelt werden, ob X gegen Vorschriften des DSA zur Moderation von Inhalten, zum Risikomanagement, zur Werbetransparenz und zum Datenzugriff für Wissenschaftler verstoßen hat.

 

Was ist der DSA? – Ein Überblick

 

Der DSA trat am 16.11.2022 in Kraft und gilt als Verordnung in der gesamten EU. Online-Dienste haben noch bis zum 17.02.2024 Zeit, um sich auf die Anpassung an die neuen Regelungen und die technische Umsetzung vorzubereiten. Die Vorschriften für besonders große Dienste wie X - sogenannte „Very Large Online Platforms“ (VLOPs) - gelten allerdings bereits schon jetzt. Als Gesetz über digitale Dienste ist der DSA neben dem Digital Markets Act, dem AI Act, dem Data Act und insbesondere Art. 17 der Urheberrechtsrichtlinie ein ambitionierter Teil der umfassenden Digitalstrategie der EU, um ein sicheres Internet, frei von rechtswidrigen Inhalten, zu gestalten und gleichzeitig Innovation und Wettbewerbsfähigkeit der EU in der digitalen Wirtschaft zu fördern. Im Kern zielt der DSA auf Transparenz und Rechenschaftspflicht digitaler Dienstleister, der Regulierung des Einflusses von „Big Tech“ sowie der Durchsetzung der sie betreffenden Pflichten ab. Bekannte Pflichten aus der E-Commerce-Richtlinie werden durch den DSA ergänzt sowie teilweise ersetzt und das deutsche NetzDG (Netzwerkdurchsuchungsgesetz) wird nahezu obsolet.

 

Der DSA soll Online-Inhalte regulieren und stellt erweiterte Sorgfaltspflichten für Plattformen auf. Im Speziellen zielt der DSA auf die Regulierung rechtswidriger Inhalte („illegal content“) ab. Das sind Inhalte, die nicht im Einklang mit dem Unionsrecht oder dem Recht eines Mitgliedstaates stehen, worunter auch Hate Speech fallen soll. Ab wann Äußerungen allerdings tatsächlich als Hassrede einzustufen sind, die z.B. Persönlichkeitsrechte verletzen oder noch dem Recht auf freie Meinungsäußerung unterfallen, führt allerdings zu komplexen Beurteilungsfragen und stellt eines der Hauptprobleme der praktischen Umsetzung dar. Kritiker sorgen sich insbesondere um die negativen Auswirkungen auf europäische Grundrechte, wie die Meinungsäußerungsfreiheit, die unter dem komplexen bürokratischen Konstrukt des Maßnahmenpakets leiden könnten.

 

Der DSA gibt unter anderem vor, dass Anbieter von Hosting-Plattformen Melde- und Abhilfeverfahren einführen und betroffenen Nutzern den Grund der Löschung ihrer (angeblich) rechtswidrigen Inhalte transparent mitteilen müssen. Zu den Hosting-Services gehören Social Media-Plattformen oder Online-Marktplätze (eBay, Amazon usw.). Wann immer also im Rahmen der Moderation Inhalte entfernt oder gesperrt werden, müssen genaue Informationen über die Fakten und Gründe (sog. „statements of reasons“) an die betroffenen Nutzer abgegeben und über Beschwerdemöglichkeiten aufgeklärt werden. Das gilt für Moderation auf Basis von Meldungen ebenso wie für solche aufgrund der jeweiligen Nutzungsbedingungen der Plattformen.

 

Zur Stärkung der Transparenz müssen alle digitalen Dienstleister außerdem neben der eindeutigen Kennzeichnung von Werbung künftig in ihren AGB auch auf ihre Moderation von Inhalten Bezug nehmen. Dabei sollen sie Angaben zum Verfahren und Leitlinien machen, die bei der Beschränkung von Inhalten angewendet werden. Insbesondere soll über den Umfang algorithmischen und menschlichen Einflusses bei der Entscheidungsfindung berichtet werden. Zum Beispiel müssen große Dienste die Anzahl der erhaltenen Meldungen und die Art der ergriffenen Maßnahmen mitteilen (z.B. ob die Löschungsmaßnahmen automatisiert stattfanden). Damit sollen nun Kunst- und Meinungsfreiheit der Nutzer stärker berücksichtigt werden. Außerdem soll der DSA „Dark Patterns“ und „Nudging“ eindämmen – ein irreführendes Plattform-Design, das die freie und informierte Entscheidung der Nutzer beeinträchtigen soll. Eben diese Praxis wird nun auch X im derzeitigen Verfahren vorgeworfen.

 

Wer ist von dem DSA betroffen?

 

Grundsätzlich richtet sich der DSA allgemein an alle in der EU aktiven digitalen Vermittlungsdienste (sog. Intermediäre), die Nutzern den Zugang zu Waren, Dienstleistungen und Inhalten online verschaffen. Ausnahmen gibt es jedoch für kleinere Unternehmen (< 50 Beschäftigte, < 10 Millionen Euro Jahresumsatz). Die auf Online-Dienste zukommenden Pflichten sind in einem Stufensystem ausgestaltet und richten sich nach Größe und Bedeutung der Tech-Unternehmen. Angefangen mit an alle digitalen Vermittlungsdienste gerichteten Regelungen, erfasst der DSA reine Durchleitungsdienste, Caching-Dienste, Hosting-Dienste, Social Media-Plattformen und Online-Marktplätze, bis hin zu sehr großen Plattformen und Suchmaschinen (den „Big Tech“ Unternehmen) welche von den strengsten Vorschriften betroffen sind.

 

Was wird aus den bekannten Haftungsprivilegierungen?

 

Unverändert hält der DSA an den Haftungsprivilegierungen der E-Commerce-Richtlinie für neutral und rein technisch verarbeitende Vermittlungsdienste fest. So müssen Hosting-Dienste (insbesondere Online Content-Sharing Service Provider, die fremde, nutzergenerierte Inhalte übermitteln) grundsätzlich weiterhin erst ab Kenntniserlangung rechtswidrige Inhalte entfernen und werden nicht zu einer allgemeinen proaktiven Überwachung verpflichtet (notice and take down). Je nach Regulierungsstufe verschärfen sich jedoch die Prüfpflichten, die an die Anbieter gestellt werden, deutlich. Ähnlich wie im Rahmen der zuvor erlassenen Urheberrechtsrichtlinie nimmt die EU Plattformen für rechtswidrige Drittinhalte damit stärker in die Pflicht und lenkt die Moderation von Inhalten weiter in den proaktiven Bereich bzw. in Richtung einer Vorabfilterung.

 

DSA Transparency Database für alle Plattformen

 

Im September 2023 hat die EU-Kommission mit der sog. „Transparency Database“ eines der weitreichendsten Transparenzwerkzeuge des DSA umgesetzt (Home - DSA Transparency Database (europa.eu)). Die neue Datenbank wird die „statements of reasons“ für die Löschung und Beschränkung von Inhalten sammeln und ist die erste dieser Art, in der Daten zur Moderation von Inhalten durch Online-Plattformen der Öffentlichkeit in einem nie da gewesenen Umfang zugänglich gemacht werden und zur Big Tech-Rechenschaftspflicht beitragen soll. Nur sehr große Online-Plattformen (VLOPs) müssen bereits jetzt Daten an die Datenbank übermitteln. Ab dem 17. Februar 2024 müssen dann alle Anbieter von Online-Plattformen, mit Ausnahme von Kleinst- und Kleinunternehmen, Daten über ihre Inhaltsmoderation vorlegen. In der Datenbank können die Nutzer zusammenfassende Statistiken einsehen, nach spezifischen Begründungen suchen und Daten herunterladen. Dass wenige Tage nachdem die Datenbank online ging, über 10 Millionen statements of reasons gemeldet wurden, also über 10 Millionen Löschungen oder Einschränkungen stattgefunden haben - gleich ob aufgrund Rechtswidrigkeit oder eines Verstoßes gegen hauseigene Nutzungsbedingungen - zeigt das Ausmaß der Löschung von Online-Inhalten. Ziel der Database ist die Erhöhung der Transparenz für Nutzer, aber auch die Stärkung des Zugriffs von Forschern auf Daten zur Inhalts-Moderation, um Falschinformationen besser zu verstehen und Lösungen zu entwickeln. Seit der Übernahme durch Elon Musk wurde der Zugang für Forscher zu möglichen Falschinformationen auf der Plattform X allerdings erheblich erschwert.

 

Was erwartet Online-Plattformen mit dem DSA?

 

Auch wenn große Dienste wie X besonders einschneidend betroffen sind, richtet sich der DSA praktisch an alle digitalen Unternehmen. Daher sollten Unternehmen, die in der EU auftreten, prüfen, inwiefern sie von den Regelungen betroffen sind und sich sowohl technisch als auch organisatorisch auf die Umsetzung vorbereiten. Je nach Klassifizierung des Unternehmens ist als Teil ihrer Compliance an die Einführung bestimmter Prozesse zu denken. Die konkreten Anpassungen sind allerdings aufgrund des Stufensystems des DSA sehr unterschiedlich und müssen auf den Einzelfall abgestimmt werden. Inwieweit ein Online-Shop im Einzelfall dem DSA untersteht, und welche Pflichten zu beachten sind, kann zum Beispiel nicht pauschal beantwortet werden. Das zeigte auch eine im April 2023 veröffentlichte Liste der Kommission, auf der sich 17 sehr großen Online-Plattformen, wie z.B. Zalando, wiederfanden, die teilweise sodann Klage gegen die Qualifizierung als sehr große Online-Plattform beim Europäischen Gericht einreichten. Insbesondere auch Onlineshops sollten sich daher bis zum 17. Februar 2024 informieren und die für sie geltenden Pflichten umsetzen.

 

Dazu gehört die Umsetzung der Inhaltsmoderation und die Einrichtung der dafür notwendigen Meldemechanismen sowie die Anpassung der AGB. Hosting-Services müssen vor allem die technischen Voraussetzungen schaffen, um die statements of reasons an die Datenbank der Kommission zu übermitteln. Die Kommission stellt dafür den Quellcode zur Verfügung, sodass die Mitteilungen automatisiert an die Datenbank erfolgen können.

 

UK’s Online Safety Act

 

Mit ähnlichen Zielsetzungen wie der DSA hat das Vereinigte Königreich den Online Safety Act erlassen, um gegen illegale Inhalte im Internet vorzugehen. Dieser soll durch die Regulierungsbehörde Ofcom durchgesetzt werden und auch hier ist der Fokus auf Online-Diensteanbieter und deren Prüfpflichten gerichtet. Aufgrund der unterschiedlichen Rechtsvorschriften müssen Anbieter von Online-Diensten, die sich an Nutzer in der EU und im Vereinigten Königreich richten, jedoch prüfen, welche Anforderungen der einzelnen Rechtsvorschriften für sie gelten.

 

Das Verfahren gegen X

 

X unterliegt als klassifizierte sehr große Plattform (VLOPs) den strengsten Anforderungen des DSA. X wird nun vorgeworfen, gegen Moderationsregelungen des DSA zu verstoßen. Forscher an einer deutschen Universität haben bereits herausgefunden, dass X deutlich weniger Inhalte moderiert als andere große Plattformen.

 

Außerdem zeigt die Transparency Database, dass Plattformen – wie zu erwarten war – meist mit Hilfe von automatisierten Filtern moderieren. Sie zeigt also auf, dass die Massen an Meldungen in der praktischen Umsetzung nur automatisiert erfolgen können. Wie die dadurch entstehenden Gefahren für die Kunst- und Meinungsfreiheit zu lösen sind, die (bislang) oft nicht ausreichend zuverlässig von Algorithmen beurteilt werden, bleibt allerdings nach wie vor offen. Das Verfahren gegen X ist insbesondere interessant im Hinblick auf die Frage, ob und inwiefern das Maßnahmenpaket der EU wirksam gegen Fake News, illegale Inhalte und für mehr Transparenz und den Schutz der Äußerungs- und Informationsfreiheit ist. X hält den Vorwürfen, nicht ausreichend gegen illegale Inhalte vorzugehen entgegen, dass anstelle von Löschungen auf sogenannte „wisdom of crowds“ (die Weisheit der Vielen) gesetzt wird. Die „Community Notes“ von X ermöglichen ein „community based fact-checking“ (Faktenüberprüfungen durch die Online-Gemeinschaft), das Falschinformationen im Netz eindämmen soll. Durch diese Funktion auf X können Beiträge mit Kontext versehen werden, um unter einem Beitrag, Bild oder Video einen Faktencheck zu liefern. Die EU-Kommission wird nun prüfen, ob diese Faktenüberprüfung von X im Kontext des DSA als primäres Gegenmittel für Falschinformationen ausreicht. Wie die Kommission mit dieser Art der Inhalts-Moderation umgehen wird, ist noch ungeklärt. Weitere Verfahren wurden von der Kommission bereits gegen andere Social Media-Plattformen der Unternehmen Meta und TikTok angekündigt.

 

Ausblick

 

Plattformen sehen also einigen Herausforderungen entgegen. Neben den Fragen zur Plattformhaftung für begangene Urheberrechtsverletzungen durch Plattformnutzer (Art. 17 Urheberrechtsrichtlinie) treffen Betreiber mit den nach und nach in Kraft tretenden EU-Regelungen auf ein immer komplexer werdendes Regelwerk, das sie beachten und praktisch umzusetzen müssen. Wann Inhalte tatsächlich rechtswidrig oder schädlich sind, wie die technische Umsetzung den riesigen Datenmassen tatsächlich gerecht werden soll, ohne komplett auf automatisierte Filter zu setzen und wie gleichzeitig die Äußerungsfreiheit gewahrt werden kann, bleibt allerdings bislang vage und im Endeffekt in den Händen der Plattformen. Letztere orientieren sich nach wie vor nicht nur an den Gesetzen sondern an den eigenen Nutzungsbedingungen, sodass die Grenzen der Äußerungsfreiheit im digitalen Raum weiterhin primär durch die Plattformen gelenkt wird. Erste Auswertungen der Transparency Database haben gezeigt, dass einige der Plattformen im großen Stil Inhalte entfernen und andere, wie X, deutlich weniger. Die Plattformen folgen dabei ihren eigenen Richtlinien und wenden unterschiedliche Werkzeuge bei der Moderation an. Inhalte werden daher auch unabhängig von der Frage der Rechtswidrigkeit zusätzlich anhand der geltenden Nutzungsbedingungen bewertet und teilweise gelöscht, auch wenn sie rechtmäßig sind.

 

Bald wird sich zeigen, ob der DSA und die neue Datenbank tatsächlich einen spürbaren Beitrag zur Wahrung der Äußerungsfreiheit im Netzt leisten wird und den Einfluss der Big Tech sinnvoll reguliert. Ob die Androhung hoher Bußgelder eine übermäßige Löschung und sog. chilling effects (die negative Auswirkung auf Grundrechte wie Kunst und Meinungsfreiheit) beflügelt, bleibt die Sorge von Kritikern. Es bleibt abzuwarten, wie sehr die neue Transparency Database Aufschluss über die Moderation durch Tech-Unternehmen und die Auswirkungen auf die Äußerungsfreiheit im Netz geben kann. Abgesehen davon wird sich der DSA zusammen mit den anderen Maßnahmen der Digitalstrategie der EU auf alle Online-Dienstleister und die gesamte Digitalbranche spürbar auswirken.

 

 

EmailTwitterLinkedInXingWeChat