Transparentes Hilfsmittel

Das Klassifizierungs- und Dokumentationstool MAX

Claudia Mikat im Gespräch mit Klaus Jahn

Das Klassifizierungstool MAX ist eine professionelle, auf die Arbeitsweise von Jugendschutzbeauftragten in TV- und Telemedienkonzernen ausgerichtete Software, die von der Abteilung „Standards & Practices“ von Discovery Communications Deutschland entwickelt wurde. Das Tool ermöglicht die Kennzeichnung von Szenen während des Screenings und die inhaltliche Einordnung und Altersklassifizierung auf der Grundlage einer Bewertungsmatrix, die der gängigen Argumentation im wirkungsorientierten Jugendmedienschutz folgt. Auch Kontextfaktoren, relativierende und verstärkende Argumente können in die Bewertung einfließen. Am Ende wird ein international les- und auswertbares Protokoll generiert, in dem die markierten Szenen und gewählten Bewertungen aufgeführt sind, die die Altersfreigabe begründen. Klaus Jahn, Jugendschutzbeauftragter von Discovery Communications Deutschland, entwickelte die Idee.

Printausgabe tv diskurs: 23. Jg., 4/2019 (Ausgabe 90), S. 41-45

Vollständiger Beitrag als:

In der Jugendschutzabteilung von Discovery arbeiten Sie seit einiger Zeit mit dem Klassifizierungstool MAX. Wann haben Sie mit der Entwicklung des Systems begonnen und was war die Idee?

Es gab verschiedene Beweggründe, vor allem die fehlende Transparenz hinter den Jugendschutzeinstufungen. Wir sind ja ein internationales Medienunternehmen, und es gibt Jugendschutzeinstufungen zu allen möglichen Programmen in allen Ländern. Mit der Angabe „14“ und „V“ aus den USA können wir in Deutschland aber wenig anfangen, deshalb muss das Programm erneut gesichtet werden, obwohl es in Amerika bereits gescreent wurde. Der indische Kollege muss es wieder sichten, ebenso der britische. Wir haben schon seit 2010 nach einem Lösungsansatz gesucht, um Jugendschutzbewertungen transparent darzustellen, sodass die Kollegen in den anderen Ländern damit arbeiten können. Ein passendes Tool sollte zugleich den Aufwand reduzieren und eine zeitgemäße Metadatenverwaltung ermöglichen. Ende 2017 sind wir dann in die Umsetzung gegangen.

In den Niederlanden existierte zu diesem Zeitpunkt bereits das Klassifizierungssystem Kijkwijzer. Warum haben Sie nicht auf diesem System aufgesattelt und es für Ihre Zwecke modifiziert?

Das Kijkwijzer-System ist hochinteressant, es will jedoch Interpretationsspielräume möglichst vermeiden. Der Coder beantwortet Fragen und bezieht sich dabei auf Einzelszenen, daraus berechnet das System dann eine Altersfreigabe. Unser System funktioniert völlig anders. Wir annotieren bestimmte Szenen, betrachten aber auch den Gesamtzusammenhang. Wir können beispielsweise berücksichtigen, dass ein Programm von der Lebenswirklichkeit von Kindern und Jugendlichen weit entfernt ist, sodass seine Wirkungsmacht eher gering ist. Oder es gibt Faktoren, die die Wirkung verstärken wie kinderaffine Identifikationsfiguren oder eine belastende Atmosphäre. Am Ende gelangt man nicht notwendig zu einer Einstufung, die sich auf absolute Phänomene wie „Gewaltakt“ oder „Blut“ bezieht.

Aber ist das nicht von Vorteil, wenn ein System keinen Beurteilungsspielraum zulässt? Schließlich kann so ein Programm von verschiedenen Nutzern gleich bewertet werden.

Das ist im deutschen Jugendschutzrecht so nicht vorgesehen. Der Gesamtzusammenhang eines Programms muss bei der Bewertung Berücksichtigung finden, das wird auch in den Grundsätzen der Freiwilligen Selbstkontrolle der Filmwirtschaft (FSK), der Freiwilligen Selbstkontrolle Fernsehen (FSF) und von den Landesmedienanstalten so festgelegt. Außerdem kann eine Jugendschutzentscheidung nie hundertprozentig objektiv sein. Bestimmte Dinge wirken auf die Menschen unterschiedlich. Allen Jugendschützern sind die Kriterien bekannt, aber jeder interpretiert eine Szene für sich genommen anders.

Sie meinen, was für den einen moderate Gewalt ist, schätzt die andere als drastisch ein?

So kann es sein. Auch auf Fortbildungen mit Jugendschutzbeauftragten und FSF-Prüferinnen und ‑Prüfern erleben wir regelmäßig, dass ein und dieselbe Szene von vielen erfahrenen Jugendschutzexperten sehr unterschiedlich eingeschätzt wird. Aus diesem Grund gibt es pluralistisch besetzte Gremien, damit man sich am Ende in einem Ausschuss mit einer ungeraden Anzahl von Mitgliedern auf eine endgültige Einstufung verständigt.

Wie ist Ihre Erfahrung? Wie groß sind die Bewertungsunterschiede zwischen Ihnen und Ihren Kolleginnen und Kollegen?

Sie sind genauso groß, wie sie ohne das System sind. Es kann passieren, dass mein Kollege bei einem Programm zu einer 12-Day-Time-Freigabe kommt und ich zu einer 12-Prime-Time-Einstufung. Das ist nicht abhängig vom System, sondern von demjenigen, der die Bewertung vornimmt.

Es gibt also keine geheime Auswertungslogik, keine Algorithmen hinter dem System, sondern es werden die subjektiven Bewertungen derjenigen dokumentiert, die ein Programm sichten?

Das System ist komplett transparent und nur ein Hilfsmittel, es kann nie zu einer abweichenden Einstufung durch die Software kommen. Die Person, die screent, bestimmt selbst das Ergebnis. Sie entscheidet, ob eine Szene ängstigend oder desorientierend ist und ob ein Programm bereits für jüngere oder erst für ältere Kinder geeignet ist. MAX ist nur ein Tool für Jugendschutzexperten.

Wie funktioniert das MAX-System konkret?

Das System besteht aus drei Bausteinen: einem Player, einem Annotationstool und einer Bewertungsebene mit codierten Satzbausteinen. Wie früher bei der Arbeit in einem Word-Dokument sieht man auf dem Player eine Szene, notiert den Timecode und beschreibt, worum es geht und was das mögliche Risiko ist. Diese Arbeit vereinfacht MAX, weil alles miteinander verbunden ist: Man markiert eine Szene, erhält automatisch den Timecode und benennt die Jugendschutzrelevanz mithilfe hinterlegter Sätze in Sekundenbruchteilen.

Könnten Sie die Funktionsweise an einem Beispiel erläutern? Stellen wir uns eine Episode einer typischen Krimiserie vor, die in Deutschland im Haupt- oder Spätabendprogramm läuft.

In der Regel gibt es in diesen Formaten mehrere Szenen, in denen Gewalt ausgeübt wird, in denen leidende Menschen oder Leichen zu sehen sind, was Kinder schwer verkraften können. Diese Szenen werden annotiert und je nach ihrer Intensität mit den entsprechenden Argumenten für ängstigende und belastende Wirkungen versehen. Eine Person wird getötet, was moderat inszeniert ist, eine übel zugerichtete Leiche ist im Bild, jemand wird massiv bedroht – das geht so durch das ganze Programm. Auf der Grundlage dieser ausgewählten Argumente gelangt der Screener zu einer Freigabe, z.B. „ab 12 Jahren“. Am Ende wird dann eine relative Bewertung vorgenommen, in der der Gesamtzusammenhang betrachtet wird: Ist das Setting sachlich oder emotionalisierend? Gibt es kindliche Identifikationsfiguren oder richtet sich das Programm erkennbar an Erwachsene? Ist die Darstellung realistisch oder comichaft überzeichnet? Gibt es ironische Töne und wenn ja, ab welcher Altersstufe können Kinder diese verstehen? Auch für diese Kontextfaktoren gibt es vorformulierte Textbausteine. Sie können die Wirkung relativieren oder verstärken und entsprechend auch zu einer niedrigeren oder höheren Alterseinstufung führen.

Wie könnte das Endergebnis aussehen?

In der Auswertung, dem Screening Report, könnte beispielsweise stehen, dass das Programm moderate Gewaltdarstellungen und bedrohliche Situationen enthält, die 12- bis 16‑Jährige grundsätzlich bereits verarbeiten können, dass sich aber durch die große inhaltliche Nähe der Handlung und die überaus düstere und ängstigende Atmosphäre die Gesamtwirkung deutlich verstärkt, sodass die Alterseinstufung auf 16 angehoben wurde.

Die Formulierungen klingen vertraut …

Ja, weil die Jugendschutzargumente zu einem guten Teil aus FSF-Gutachten stammen. Auch vonseiten der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) gab es Impulse, aus dem Kijkwijzer-Fragebogen und anderen Quellen. Wir haben bekannte Jugendschutzargumente gesammelt, zusammengefasst und danach die Satzbausteine formuliert, die den einzelnen Wirkungsrisiken hinterlegt sind. Es werden also Kategorien von etablierten Jugendschutzstellen verwendet.

Wie viel länger dauert es, ein Programm mit dem Tool zu klassifizieren?

Wir sind mit dem Tool wesentlich schneller als ohne. Wir haben bei uns im Haus immer schon recht genaue Jugendschutzberichte erstellt, aber der Aufwand ist heute geringer bei umfassenderem Ergebnis. Während der Sichtung werden Szenen markiert, wobei selbst der Tippaufwand entfällt, weil das Programm inzwischen sprachgesteuert ist. Danach muss man sich kurz Gedanken machen über Relativargumente, über entlastende oder verstärkende Faktoren und ist dann fertig. Sämtliche Angaben befinden sich unmittelbar in der Datenbank. Schon heute ist es möglich, die generierten Metadaten über Schnittstellen zu exportieren, um so beispielsweise in Zukunft per Knopfdruck einen Prüfantrag bei der FSF zu stellen und zugleich den Materialversand zu veranlassen. Im Grunde genommen ist MAX ein Arbeitserleichterungstool wie in anderen Branchen längst üblich.

Planen Sie, das Tool in das derzeitige Jugendschutzsystem einzubinden und wenn ja, welche Rolle könnte MAX im Kontext von freiwilliger Selbstkontrolle und Aufsicht spielen?

Wenn es genügend Interessenten gäbe, die das System anwenden, kann es durchaus eine Rolle spielen. Es erleichtert nicht nur administrative Arbeit, sondern schafft auch eine perfekte Aktenlage: Man hat das Bild, den Timecode und das Jugendschutzargument zu einer Szene. Die Auswertung ist immer gleich formuliert. Das macht die Gutachten etwas langweilig, aber auch vergleichbarer, weil die Argumente auf die jugendschutzrelevanten Inhalte fokussieren. Die Ergebnisse sind transparent und können auch leicht von der FSF oder der Kommission für Jugendmedienschutz (KJM) überprüft werden.

Gibt es auch die Möglichkeit, eigene Texte zu schreiben?

Ja, es ist immer möglich, Fließtext einzugeben und z.B. Anmerkungen zu einer Szene zu machen oder Begründungen weiter auszuführen. Wir versuchen das aber zu vermeiden, weil der Vorteil der Textbausteine gerade in der Übertragbarkeit liegt. Hier ist das Potenzial von MAX noch längst nicht ausgeschöpft. Schließlich generieren wir mit der Software maschinenlesbare Metadaten, die in Zukunft für intelligente Systeme und für die Forschung genutzt werden können. Die Ergebnisprotokolle lassen sich nach Bedarf filtern. Das versetzt uns schon jetzt in die Lage, Jugendschutzentscheidungen, ‑begründungen und inhaltliche Angaben zum Programm unter verschiedenen Gesichtspunkten auszuwerten.

Wie funktioniert mit MAX der Austausch von Daten in einem global agierenden Konzern?

Per Knopfdruck können wir deutsche Einstufungen ins Englische übersetzen. So können Kollegen weltweit die Szenen gezielt und komfortabel überprüfen, die wir in Deutschland annotieren, unsere Argumente dazu lesen und die Bewertung für sich anpassen, wenn sie anderer Auffassung sind. Möglich ist auch eine automatisierte Übersetzung der Bewertungen in den Fällen, in denen die Sensibilitäten klar sind und man beispielsweise antizipiert, dass die Bewertungen von sexuellen Bezügen im angloamerikanischen Raum strenger ausfallen als in Deutschland.

Das würde aber voraussetzen, dass alle potenziell relevanten Szenen annotiert werden, was man gemeinhin nicht tut. Wer ein Produkt bewertet, notiert sich üblicherweise nur die wirklich für die Sendezeit relevanten Szenen, z.B. eine drastische Gewaltszene, aber nicht unbedingt das Bild einer toten Kuh, das in Indien aber vielleicht bedeutsam sein könnte.

Wir müssen in vielen Bereichen globaler denken. Nach meiner Einschätzung auch im Jugendschutz. Das Programm ist nur so gut wie der Mensch, der damit arbeitet. MAX ist keine künstliche Intelligenz. Die internationale Übertragbarkeit setzt voraus, dass die Screener die kulturellen Besonderheiten kennen, z.B. Essens- und Kleidervorschriften in muslimischen Ländern oder die Hakenkreuz-Problematik in Deutschland. In den meisten Bereichen – bezüglich Gewalt, Angst, Sexualität und Drogen – ist man sich allerdings international einig, dass diese Inhalte jugendschutzrelevant sind. Wie sie bewertet werden, ist dann aber kulturell und landesspezifisch sehr unterschiedlich.

Streben Sie eine automatisierte Übersetzung kultureller Unterschiede an?

In Ländern, die in der Bewertung nah beieinanderliegen, kann man das vergleichsweise einfach programmieren und Unterschiede anpassen. Schwieriger wird es, wenn es wenige Gemeinsamkeiten gibt, wie zwischen sehr liberalen und sehr restriktiven Nationen. In diesen Fällen empfiehlt es sich, dass jedes Land eine eigene Matrix anwendet. Die „one-version-fits-all“-Lösung wird es in naher Zukunft nicht geben.

Wäre das Tool auch für die Nutzung in Selbstkontrolleinrichtungen empfehlenswert?

Ja, weil ich von MAX überzeugt bin und es vieles formalisieren kann. Es könnte eine größere Übereinstimmung zwischen Aufsicht, Selbstkontrollen und Jugendschutzbeauftragten in den Sendern geben, wenn sich alle über die gleichen Argumente verständigen, Bewertungen abstimmen und Anpassungen vornehmen würden. Aber man kann mit der Software nicht diskutieren. MAX kann und soll daher keine Ausschussprüfung ersetzen, aber für Einzelprüfungen ist es ein sehr tragfähiges, zeitgemäßes Tool mit allen dargelegten Vorteilen.
 

Klaus Jahn ist Jugendschutzbeauftragter von Discovery Communications Deutschland.

Claudia Mikat ist Geschäftsführerin der Freiwilligen Selbstkontrolle Fernsehen (FSF).