„Der DSA ist ein Gamechanger.“

Christina Heinen im Gespräch mit Matthias C. Kettemann

Der Digital Services Act (DSA) ist seit dem 17. Februar 2024 vollumfänglich anwendbar. Zuvor galten seine Vorschriften nur für sehr große Onlineplattformen und Suchmaschinen, jetzt muss in jedem europäischen Land eine Infrastruktur geschaffen werden, die die Umsetzung gewährleistet. mediendiskurs sprach mit Dr. Matthias C. Kettemann, Professor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck, über Zielsetzung und Vorgaben dieses europäischen Rechtsrahmens und darüber, inwieweit eine europäische Regulierung mit Blick auf den globalen Charakter des World Wide Webs überhaupt Sinn macht.

Printausgabe mediendiskurs: 28. Jg., 2/2024 (Ausgabe 108), S. 54-57

Vollständiger Beitrag als:

Verdient der DSA den Beinamen „Grundgesetz für das Internet“?

Ja, der DSA ist ein Gamechanger. Er ist der rechtliche Höhepunkt der seit mehr als fünf Jahren laufenden Bemühungen, Plattformen stärker zu kontrollieren. Um dieses Ziel zu erreichen, müssen wir mehr darüber wissen, nach welchen Regeln die großen Plattformen Inhalte moderieren. Wir brauchen mehr Transparenz und eine höhere Bereitschaft der Betreiber, sich an Gesetze zu halten. Erste Erfolge sind jetzt schon sichtbar, wenn Plattformen mit ihren Moderationsentscheidungen stärker an die Öffentlichkeit gehen. In Deutschland hat das NetzDG viele der Neuerungen des DSA vorweggenommen, die Löschpflicht für illegale Inhalte innerhalb bestimmter Fristen beispielsweise oder die Pflicht zur Berichterstattung über Moderationsentscheidungen wie die Löschung von Postings und Accounts. Es ändert sich bei Weitem nicht alles: Die Haftungsfreistellung der Plattformanbieter, die nicht unmittelbar verantwortlich sind für Inhalte, die ihre Nutzer hochladen, bleibt bestehen. Aber angesichts der immer wichtigeren Rolle der Plattformen als neue Form der Öffentlichkeit müssen wir dringend mehr darüber wissen, wie sie mit Inhalten umgehen, etwa wie sie ihre automatisierten Empfehlungssysteme einstellen. Der DSA sorgt dafür, dass diese Informationen zugänglich werden.

Sind Learnings aus dem NetzDG bei der Entwicklung des DSA eingeflossen, z. B. hinsichtlich des Overblockings, der ungerechtfertigten Löschung von Inhalten?

Es sind viele Erfahrungswerte aus dem NetzDG eingeflossen, den deutschen Juristinnen und Juristen wurde in der Vorbereitungsphase des DSA sehr genau zugehört. Deutschlandintern gab es auch eine wissenschaftliche Evaluierung des NetzDG, aus der gelernt werden konnte. Dabei ist es grundsätzlich nicht einfach, festzustellen, wie viel es an Overblocking gibt. Unter Overblocking versteht man, dass die Plattformen, wenn sie gesetzlich dazu gezwungen werden zu moderieren, einen Anreiz haben, eher mehr zu löschen als weniger. Gleichzeitig aber sehen wir, dass Plattformen insgesamt immer noch viel zu wenig löschen – also auch „Underblocking“ machen, im Bereich rechtsradikaler, antisemitischer, frauenfeindlicher oder zu Gewalt aufrufender Inhalte beispielsweise. Overblocking und Underblocking bestehen also nebeneinander. Trotz ihrer Milliardengewinne haben es bisher nicht alle Plattformen geschafft, ein schnelles, funktionierendes Moderationsinstrumentarium aufzubauen, das die Rechte aller respektiert. Das ist bei Millionen von Inhalten, die minütlich hochgeladen werden, in unterschiedlichen Sprachen und Formen – Bildern, Videos, Texten –, auch keine leichte Aufgabe. Es werden Inhalte gelöscht, die weder rechtswidrig noch AGB-widrig sind, und leider bleiben auch Inhalte online, die AGB-widrig und rechtswidrig sind. Im Großen und Ganzen halte ich Underblocking für gesellschaftlich weitaus problematischer als Overblocking. Ein Problem ist, dass KI bislang nur bei großen Sprachen gut funktioniert hinsichtlich der Erkennung rechtswidriger oder AGB-widriger Inhalte. Auch deutschsprachige Inhalte müssen noch überwiegend händisch nachmoderiert werden. Bei noch kleineren Sprachen, in Regionen, wo der politische Druck zu moderieren fehlt, bleiben sehr viele hochproblematische Inhalte online, Hetze gegen bestimmte Bevölkerungsgruppen beispielsweise.
 


Trotz ihrer Milliardengewinne haben es bisher nicht alle Plattformen geschafft, ein schnelles, funktionierendes Moderationsinstrumentarium aufzubauen, das die Rechte aller respektiert. “



Welche Idee von Regulierung, welches Modell liegt dem DSA zugrunde?

Eine Mischung aus Regulierung, Selbstregulierung und regulierter Selbstregulierung. Regulierung dadurch, dass eine Aufsichtsstruktur geschaffen wird. Die EU-Kommission spielt eine wichtige Rolle, außerdem muss jedes Land national einen sogenannten DSC, einen Digital Services Coordinator oder Digitale-Dienste-Koordinator benennen. In Deutschland wird die Bundesnetzagentur diese Aufgabe übernehmen und kontrollieren, dass die Pflichten aus dem DSA eingehalten werden. Weite Bereiche der Vorschriften aus dem DSA verpflichten die Anbieter selbst, Regeln zu entwickeln. Im Bereich der Desinformation z. B. kann der Staat wenig tun, Desinformation ist überwiegend legal. Nichtsdestotrotz ist sie im Aggregat sehr problematisch. Deshalb verweist der DSA auf bestehende private Kodizes wie den EU-Verhaltenskodex gegen Desinformation. Sehr viele große Unternehmen haben ihn unterzeichnet und halten sich daran. X (vormals Twitter) hat die Unterschrift nach Elon Musks Übernahme zurückgezogen. Der DSA nennt den Verhaltenskodex gegen Desinformation und macht ihn indirekt verbindlich, indem er eine Berichtspflicht einführt. Die Unternehmen müssen darlegen, wie sie gegen Desinformation vorgehen. Neben der Bundesnetzagentur sind auch die Landesmedienanstalten, die Landesdatenschutzbehörden, das Bundeskriminalamt und Einrichtungen des Jugendmedienschutzes mit der Umsetzung des DSA betraut.

Der DSA bindet mit seinen rechtlichen Vorgaben die europäischen Staaten, aber das Internet ist ein globaler Raum. Macht diese Art territorial gebundener Regulierung im Netz überhaupt Sinn?

Am schönsten wäre es natürlich, wenn wir uns global auf Regeln einigen könnten. Der Europarat versucht das aktuell mit einer KI-Konvention, die auch Auswirkungen auf die Moderation von Inhalten haben könnte. Aktuell gibt es aber weltweit sehr unterschiedliche Ansätze der Regulierung von Plattformen. Die USA verfolgen einen marktliberalen, China einen autoritären Ansatz. Europa bleibt übrig als eine normative, rechtsgebundene, menschenrechtsorientierte Macht, die Regeln setzt. Diese gelten zwar formal nur für den europäischen Rechtsraum, können aber – wie das Beispiel der Datenschutz-Grundverordnung (DSGVO) zeigt – eine Art „weiche Bindung“, eine Bindung ohne Fesseln, auch für andere Länder entfalten. Man nennt das den „Brüssel-Effekt“: Weil die europäischen Regeln klug sind und vor allem nachhaltige Moderationsstrukturen fördern, wirken sie, so schätze ich, über Europa hinaus attraktiv. Es ist zu erwarten, dass der „Brüssel-Effekt“ auch beim DSA eintritt und dass andere Länder sich hinsichtlich der Plattformregulierung an den Vorgaben Europas orientieren werden.
 

 

Was macht das Verhältnis von Medienfreiheit und Medienregulierung im Hinblick auf Plattformen wie Facebook, YouTube oder TikTok so kompliziert – warum greifen unsere alten Modelle der Medienregulierung nicht mehr?

Plattformen sind keine Medien. Sie beruhen auf Inhalten Dritter. Das ist ein vollkommen neues Modell, das neue Mechanismen und Konzepte der Regulierung erfordert. Ein zentraler Ansatzpunkt für Regulierung ist der Umgang der Plattformen mit nutzergenerierten Inhalten: Wie sie diese verfügbar halten, wie sie manche Inhalte promoten und andere verstecken. Diesem durchaus publizistischen Akt der Strukturierung von algorithmisch beeinflusster Informationsweitergabe, die ja zugleich den Mehrwert der Plattformen ausmacht, entspricht eine Verantwortung, die die Plattformen endlich übernehmen müssen. In den vergangenen 20 Jahren waren Plattformen sehr erfolgreich damit, Regulierung abzuwehren mit der Begründung, dass sie nur das zur Verfügung stellen, was andere machen. Das stimmt natürlich nicht, der Einfluss der Plattformen ist gewaltig. Die traditionellen Konzepte und Mechanismen der Medienregulatorik sind durch diese neuen Akteure und globalen medialen Realitäten herausgefordert. Wir wissen dank der Ergebnisse der Informations- und Rezeptionsforschung inzwischen viel mehr darüber, wie Menschen Informationen aufnehmen und verarbeiten. Es ist nicht so, dass sie auf Facebook gehen und plötzlich etwas ganz anderes glauben. Das Informationsverhalten von Menschen ist wesentlich komplexer. Niemand muss vor bösen Informationen geschützt werden. Vielmehr geht es darum, auf Senderebene die Informationsqualität und auf Empfängerebene die Informationsverarbeitungsfähigkeit zu stärken. Und den Prozess als Ganzes transparenter zu machen und vor allem jene Entscheidungen, die beeinflussen, was wir sehen. Es geht auch um Bildung und um die Sicherstellung eines gesellschaftlichen Rahmens, innerhalb dessen Informationen nicht zu mehr Polarisierung führen, sondern sogar eher kohäsionsbildend wirken können. So könnten – und sollten – Plattformen ihre Empfehlungssysteme nicht primär auf Engagement, sondern auf andere gesellschaftlich wichtige Ziele ausrichten – eben auf gesellschaftlichen Zusammenhalt, Medienvielfalt, Informationsqualität.
 


Vielmehr geht es darum, auf Senderebene die Informationsqualität und auf Empfängerebene die Informationsverarbeitungsfähigkeit zu stärken. Und den Prozess als Ganzes transparenter zu machen und vor allem jene Entscheidungen, die beeinflussen, was wir sehen.“



Wäre es sinnvoll, YouTuber*innen und Influencer*innen stärker für ihre Inhalte zur Verantwortung zu ziehen bzw. ihnen Pflichten aufzuerlegen?

Auf jeden Fall. Influencer sollten strukturell anders behandelt werden als normale User. Sie verdienen ihr Geld auf der Plattform. Sie sollten Verträge bekommen, die ihnen einerseits mehr Sicherheit geben dahin gehend, dass die Betreiber ihnen nicht einfach von heute auf morgen die Plattform wegnehmen können. Andererseits müssten Influencer auch mehr Verantwortung übernehmen. Es ist ja jetzt schon so, dass bezahlte Influencer mit Werbeverträgen verstärkt der Medienaufsicht unterfallen. Das ist eine gute Entwicklung. Influencer spielen eine wichtige Rolle in der kommunikativen Gestaltung der Öffentlichkeit. Zunehmend auch in der politischen Meinungsbildung, auch wenn manche Plattformen das gar nicht so gerne sehen und politische Inhalte weniger verstärken.

Wie ist es eigentlich mit dem Oversight Board von Facebook weitergegangen – ist das ein Modell erfolgreicher Selbstregulierung oder nur Symbolpolitik?

Im Grunde genommen kann man nichts dagegen haben – Menschenrechtler*innen, ehemalige Richter*innen und Professor*innen beschäftigen sich intensiv, monatelang mit Moderationsentscheidungen von grundsätzlicher Bedeutung und schreiben kluge Gutachten dazu. Leider hat das öffentliche Interesse an ihren Entscheidungen stark nachgelassen und der konkrete Effekt der meisten Entscheidungen ist schwer nachweisbar. Aber das weiß das Oversight Board auch und versucht, es zu verbessern. Das Ziel wäre ein gesamtgesellschaftlicher Diskurs über die Grenzen der Meinungsäußerungsfreiheit und die Verantwortung von Plattformen, aber diesen Diskurs kann man nicht erzwingen.

Dr. Matthias C. Kettemann ist Professor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck.

Christina Heinen ist Hauptamtliche Prüferin in den Prüfausschüssen der Freiwilligen Selbstkontrolle Fernsehen (FSF).