Panorama 1/2021
Hate Speech im europäischen Vergleich
jugendschutz.net hat von 2018 bis 2020 gemeinsam mit zehn Organisationen aus neun europäischen Ländern ein Projekt zum Thema „Hate Speech“ und dem Umgang großer Plattformen damit durchgeführt. Ein Projektbericht zu Platforms, Experts, Tools: Specialised Cyber-Activists Network (sCAN) liegt jetzt vor. Ergebnis ist, dass Hate Speech ein länderübergreifendes Phänomen ist, allerdings sind bestimmte Ausprägungen lokal unterschiedlich stark vertreten. So sind etwa Antiziganismus und damit die Diskriminierung von Roma in osteuropäischen Ländern besonders virulent.
Neben der Analyse unterschiedlicher Hassphänomene, der Verbreitungswege diskriminierender Rede und der Rolle, die prominente Figuren der (Netz‑)Öffentlichkeit dabei spielen, wurde auch evaluiert, wie Plattformen mit Hassrede umgehen. Zudem wurden Onlinekurse zu den Themen „Hate Speech“, „Moderation von Onlineplattformen“ und „Monitoring von Hate Speech“ sowie „Strategien zur Eindämmung“ entwickelt und angeboten.
Hate Speech wird im Rahmen des Projekts wie folgt definiert: „Hate Speech (Hassrede) sind absichtliche oder unabsichtliche öffentliche diskriminierende und/oder beleidigende Aussagen; absichtliche Verhetzung und/oder Anstiftung zur Gewalt und/oder Ausgrenzung aufgrund der tatsächlichen oder wahrgenommenen ethnischen Zugehörigkeit, Sprache, Nationalität, Hautfarbe, Religion (oder keiner religiösen Zugehörigkeit), [von] Gender, Geschlechteridentität, Geschlecht, sexueller Orientierung, politischer Überzeugung, soziale[m] Status, Eigentum, Geburt, Alter, psychischer Gesundheit, einer Behinderung oder Krankheit.“ (sCAN Jahresbericht Mai 2018 – Juni 2019, S. 6)
Quellen:
sCAN Jahresbericht Mai 2018 – Juni 2019. Abrufbar unter: https://scan-project.eu
jugendschutz.net: Report Hate Speech – Ein europäischer Vergleich. Ergebnisse des sCAN-Projektes 2018 bis 2020. Mainz 2020. Abrufbar unter: www.jugendschutz.net
Mehr Barrierefreiheit in den Medien gefordert, Beschwerdestelle eingerichtet
Medienangebote im TV und im Internet sind nach wie vor nur selten barrierefrei. Durch die Coronakrise gewinnt diese Problematik zusätzlich an Dringlichkeit. Untertitel, die Möglichkeit, Gebärdensprachdolmetschende einzublenden, Audiodeskription und Texte in „Leichter Sprache“ könnten Hürden in der Mediennutzung für Menschen mit Behinderungen abbauen. Entsprechend fordern die Behindertenbeauftragten von Bund und Ländern in ihrer Ende November 2020 nach mehrtägiger Diskussion mit Vertretern von Medienunternehmen, der Landesregierung und Menschenrechtsorganisationen verabschiedeten „Mainzer Erklärung“ verbindliche Ziele und Fristen für die Umsetzung barrierefreier Angebote. Die Verbände von Menschen mit Behinderungen sollen an der Umsetzung beteiligt werden.
Die Möglichkeit, sich über fehlende Barrierefreiheit zu beschweren, wurde verbessert durch die Einrichtung einer Zentralen Anlaufstelle für barrierefreie Angebote (ZABA), im Internet abrufbar unter: www. barrierefreie-medien.info
Quellen:
Beauftragter der Bundesregierung für die Belange von Menschen mit Behinderungen: Barrierefreie Medien gefordert: Behindertenbeauftragte von Bund und Ländern verabschieden die „Mainzer Erklärung“. Pressemitteilung, 21/2020, 30.11.2020. Abrufbar unter: https://www.behindertenbeauftragter.de
Die Medienanstalten: Webseite www.barrierefreie-medien.info ab sofort verfügbar. Pressemitteilung, 21/2020, 24.11.2020. Abrufbar unter: https://www.die-medienanstalten.de
Studie: Algorithmen reproduzieren und verfestigen Diskriminierung
Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) hat in einer Studie mit dem Titel Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen – ein Überblick(Autoren: Alma Kolleck und Carsten Orwat) untersucht, inwiefern komplexe algorithmische Entscheidungssysteme (AES) gesellschaftliche Ungleichbehandlungen reproduzieren und eventuell noch verstärken. AES bieten Datenerfassung, Analyse, eine Deutung der Ergebnisse sowie daraus abgeleitete Entscheidungsempfehlungen. Die Diskriminierung durch KI und AES vollzieht sich oft unerkannt und betrifft eine große Anzahl von Menschen. Dass Algorithmen bei Entscheidungs- und Scoringprozessen eingesetzt werden, wissen die Betroffenen oft gar nicht.
In der Studie werden verschiedene bereits real erfolgte Anwendungsszenarien von AES im Hinblick auf Effekte der Ungleichbehandlung und systematischen Benachteiligung bestimmter Bevölkerungsgruppen beleuchtet: So testete z.B. das Arbeitsamt in Österreich ein AES, welches Arbeitssuchende in Gruppen einteilt, und zwar entsprechend ihrer vermuteten Chancen, eine Arbeit zu finden. Ziel ist es, Fortbildungen vor allem denen zukommen zu lassen, deren Chancen im mittleren Bereich liegen. Wenn die Daten, aus denen der Algorithmus lernt, bereits eine strukturelle Benachteiligung abbilden, besteht die Gefahr, dass komplexe algorithmische Entscheidungssysteme diese reproduzieren. Der Arbeitsamt-Algorithmus stufte Frauen grundsätzlich schlechter ein und bewertete sie, wenn sie zudem Kinder großziehen – entsprechend ihrer tatsächlichen Schwierigkeiten, einen Job zu finden –, als noch in stärkerem Maße „arbeitsmarktfern“. Entsprechend sinken ihre Chancen auf eine Fortbildung, womit sich ihre Situation am Arbeitsmarkt weiter verschlechtern könnte. In Reaktion auf ein negatives Medienecho vor dem Einsatzstart des AES im Regelbetrieb betonte das österreichische Arbeitsamt, dass Berater die Entscheidungen treffen würden, nicht der Algorithmus selbst. Nach anhaltender massiver Kritik und einem negativen Bescheid der Datenschutzbehörde wurde der für Beginn des Jahres geplante Einsatz des AES vorläufig gestoppt. Wäre die Funktionsweise des Jobcenter-AES im Testlauf nicht transparent gemacht und öffentlich diskutiert worden, wäre die Diskriminierung womöglich unbemerkt geblieben. In den USA werden AES u.a. zur Risikoeinschätzung im Hinblick auf ein mögliches erneutes Straffälligwerden eingesetzt, wenn entschieden werden soll, ob eine Bewährungsstrafe ausgesetzt wird. Dabei haben sich rassistische Verzerrungen und Diskriminierungen ergeben.
Um Diskriminierungseffekte durch AES zu verringern, schlagen die Autoren der Studie konkrete Maßnahmen für mehr Transparenz, Kontrolle, Evaluierung und einheitliche Regulierung vor.
Quellen:
Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB): Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen – ein Überblick. Berlin 2020. Abrufbar unter: http://www.tab-beim-bundestag.de
Fanta, A.: Österreich: Datenschutzbehörde stoppt Jobcenter-Algorithmus. In: Netzpolitik. org, 21.08.2020. Abrufbar unter: https://netzpolitik.org
Krempl, S.: Bundestagsstudie: Intransparente Benachteiligung durch Künstliche Intelligenz. In: heise online, 25.11.2020. Abrufbar unter: https://www.heise.de
Schesswendter, R.: Diskriminierung durch Algorithmen – Studie weist Fälle nach und empfiehlt Gegenmaßnahmen. In: t3n, 25.11.2020. Abrufbar unter: https://t3n.de