Das Porträt: Katharina Zweig

Alexander Grau

Prof. Dr. Katharina Zweig ist Sozioinformatikerin an der Technischen Universität Kaiserslautern. Seit 2012 leitet sie dort die Arbeitsgruppe Algorithm Accountability Lab, wo sie sich u.a. mit der Auswirkung der Digitalisierung auf Individuen, Organisationen und Gesellschaft beschäftigt. 2016 war sie Mitbegründerin der Plattform AlgorithmWatch, seit 2018 ist Katharina Zweig Sachverständige der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ des Deutschen Bundestages.

Printausgabe tv diskurs: 23. Jg., 4/2019 (Ausgabe 90), S. 66-71

Vollständiger Beitrag als:

Muhammad ibn Musa al-Chwarizmi war einer der großen Universalgelehrten der Menschheit. Er übersetzte wichtige Texte aus dem Sanskrit und dem Griechischen ins Arabische. Aus der indischen Mathematik führte er die Zahl Null in die arabischen und westlichen Zahlensysteme ein. Er beschäftigte sich mit Kartografie und Astronomie. Dem Originaltitel seines Werkes über Rechenverfahren verdanken wir den Begriff „Algebra“. Ein weiteres Buch über die indische Zahlschrift wurde im 12. Jahrhundert ins Lateinische übersetzt. Dabei wurde die Herkunftsbezeichnung seines Namens „al-Chwarizmi“ („der Choresmier“) zu „Algorismi“ latinisiert. So kam der Algorithmus in die Welt. Dass wir einmal von Algorithmen beherrscht werden würden, war da noch nicht absehbar.

Dabei sind Algorithmen zunächst einfach nur Handlungsanweisungen. Oder wie es Katharina Zweig definiert:

Algorithmen sind eine Sequenz von Handlungsanleitungen, um für ein spezifisches Problem Lösungen zu finden. Und als Informatiker sagen wir noch gerne dazu, dass diese Lösungen in endlicher Zeit berechnet sein müssen.“

Jeder, der schriftlich rechnet, so Zweig weiter, verwendet einen Algorithmus. „Kochrezepte sind dagegen kein guter Vergleich für einen Algorithmus: Sie sind oft nicht genau genug, damit ein Computer sie umsetzen könnte, und sie produzieren nur genau ‚eine‘ Lösung – die gewünschte Speise. Algorithmen dagegen finden für ein allgemeines Problem immer eine Lösung, z.B. für beliebige Start- und Zielpunkte in Deutschland den jeweils kürzesten Weg.“

 


Netzwerke

Begonnen hat Katharina Zweig ihre wissenschaftliche Karriere allerdings nicht im Bereich „Informatik“, sondern als Biochemikerin. „Neben dem Abitur habe ich eine Ausbildung als Chemotechnische Assistentin gemacht. Und für Biochemie habe ich mich schon sehr früh interessiert. Mit 16 habe ich mir ein Biochemie-Lehrbuch zum Geburtstag schenken lassen. Ich wollte einfach den menschlichen Körper in all seinen Details verstehen.“

Dementsprechend ging die gebürtige Hamburgerin nach dem Abitur an die Universität Tübingen, um dort Biochemie zu studieren, merkte jedoch bald, dass da „noch Kapazitäten frei waren“, wie sie es selber nennt. Also begann Zweig Informatik zu studieren. „Ich dachte, da kann man nicht viel falsch machen, hatte allerdings keine ernsthafte Vorstellung davon, was man unter Informatik versteht.“ Allerdings kam Zweig die universitäre Fächerplanung entgegen. Als sie ihr Informatikstudium begann, bot die Universität das erste Mal den Studiengang Bioinformatik an. „Für mich war das nicht nur praktisch, sondern ich habe mich tatsächlich in die theoretische Informatik verliebt.“

Theoretische Informatik, erklärt die Wissenschaftlerin, beschäftige sich mit beinahe philosophischen Fragen, etwa damit, was überhaupt berechenbar sei. „In der Biochemie, insbesondere als Doktorandin, ist man sehr abhängig von anderen Leuten, man ist Erfüllungsgehilfe. In der Informatik ist das viel direkter. Da bekommst du einen Haufen Daten und sollst dann nach dem Algorithmus suchen, der auf diesen Daten ein bestimmtes Problem löst. Dieses ganz theoretische Arbeiten auf Daten, das hat mich begeistert.“

2007 wurde Katharina Zweig bereits promoviert. Der Titel ihrer Arbeit lautete: On Local Behavior and Global Structures in the Evolution of Complex Networks. Es war die Zeit, als in ganz unterschiedlichen Bereichen zunehmend komplexe Netzwerke untersucht wurden, sei es auf gesellschaftlicher Ebene, im Bereich der Telekommunikation, in der Biologie, in der Neurologie oder bei Fragen der Infrastruktur. „In meiner Doktoranden- und Postdoc-Zeit habe ich mich vor allem mit statistischer Physik beschäftigt“, erläutert die Wissenschaftlerin und erklärt: „Statistische Physiker befassen sich ursprünglich mit Edelgasen und Magnetteilchen. Deshalb sind sie gut darin, Muster zu erkennen."

Irgendwann tauchte dann die Frage auf, ob man mit Methoden der statistischen Physik auch das Verhalten von Menschen in sozialen Netzwerken erklären kann oder das von Proteinen, die miteinander wechselwirken. Das nannte man dann komplexe Netzwerkanalysen.“

Als Biochemikerin hatte sich Zweig bis zu ihrer Promotion mit metabolischen Netzwerken und Proteinnetzwerken beschäftigt. In ihrer Dissertationsschrift versuchte sie nun verschiedene Aspekte von Netzwerken anzusprechen: „Ich habe mich etwa mit Strukturen beschäftigt, die immer wieder in komplexen Netzwerken auftreten, und damit, wie die Struktur eines Netzwerkes seine Funktion widerspiegelt und umgekehrt.“

Allerdings gab es ein Problem: In den Naturwissenschaften, etwa in der Physik, neigt man dazu, Netzwerke unabhängig von ihrer jeweiligen Bedeutung, ihrem Kontext auszuwerten. Anders in den Sozialwissenschaften. Dort geht man davon aus, dass die Beschaffenheit und die Spezifika von Netzwerken von ihrem jeweiligen Kontext und ihrer Funktion abhängen. „Mit dieser Problematik habe ich mich in den Jahren nach meiner Dissertation beschäftigt“, erzählt Zweig. „Mir war aufgefallen, dass wir einerseits einen sehr atheoretischen Zugang nutzen, indem wir Daten vollkommen unabhängig von ihrem Kontext analysieren, auf der anderen Seite aber aufgrund der so gewonnenen Daten versuchen, Dinge in der realen Welt zu verstehen.“ Das Resultat können irreführende Forschungsergebnisse bis hin zu einer falschen Politikberatung mit gravierenden Folgen sein.
 

Algorithmen

Ein Ergebnis von Katharina Zweigs mehrjähriger Forschung zu diesem Problem war schließlich ein umfangreiches Buch. Sein Titel: Network Analysis Literacy, 2016 bei Springer erschienen. Ein weiteres, eher praxisnahes Resultat war die Gründung von AlgorithmWatch, einer Plattform mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung, die eine gesellschaftliche Relevanz haben – also entweder menschliche Entscheidungen vorhersagen, vorbestimmen oder Entscheidungen automatisiert treffen –, zu analysieren oder einzuordnen und diese für die breite Öffentlichkeit zu erläutern.

Gegründet wurde AlgorithmWatch ebenfalls 2016, angeregt durch eine Anfrage des Journalisten Matthias Spielkamp, zusammen mit Lorenz Matzat und Lorena Jaume-Palasí. „Ich selbst bin inzwischen nicht mehr aktiv dabei, unterstütze unsere gemeinsame Mission allerdings nach wie vor. Durch AlgorithmWatch habe ich mich verstärkt mit der Frage beschäftigt, wie man Algorithmen verantwortlich aufbaut und entwickelt, sodass man deren Ergebnisse dann auch in einem gesellschaftlichen Kontext sinnvoll und seriös interpretieren kann.“

Doch Algorithmen finden nicht nur im wissenschaftlichen oder politischen Kontext Anwendung. Die meisten Menschen nehmen sie im Alltag als Filter der ihnen im Internet offerierten Angebote wahr. Seien es Nachrichten bei Facebook, Urlaubsangebote oder Bücher, frei nach dem Motto: „Kunden, die diesen Artikel gekauft haben, kauften auch …“- Algorithmen filtern. „Wenn man etwas filtert, hat man etwas weggefiltert“, erläutert Zweig, „wenn man etwas sortiert, richtet man die Aufmerksamkeit auf gewisse Dinge und auf andere nicht.“ Die Art des Filterns und Sortierens sei daher niemals unpolitisch, es sei denn, es gehe um triviale Sachen, doch genau darum gehe es zumeist nicht. „In welcher Reihenfolge man mir Kleidung präsentiert, ist weniger wichtig. In dem Moment hat auch der Algorithmus keine große Relevanz. Etwas ganz anderes ist es etwa bei Nachrichten. Hier ist es eine gesellschaftliche Aufgabe, eine sozial verträgliche Filterung zu finden.“
 


Für Katharina Zweig sind Algorithmen zunächst effiziente Formen der Problemlösung, da sie Handlungen auf ihre wesentlichen Bestandteile reduzieren und es damit ermöglichen, Abläufe derselben Art zu beschreiben. Hinzu komme: Wenn ein Algorithmus erst einmal auf einem Computer programmiert sei, könne man individuelle Handlungsmuster in Raum und Zeit vervielfachen. Denn die Art und Weise, wie etwa eine Person ein Problem löse, sei nun in einen Programmcode gemeißelt, der jederzeit und überall auf der Welt abrufbar sei. Und schließlich würden Algorithmen nicht ermüden. Menschen würden, wenn sie Handlungsroutinen abarbeiten, irgendwann beginnen, Fehler zu machen. Zudem könnten sie nicht beliebig viele Daten verarbeiten. „Algorithmen“, betont die Wissenschaftlerin daher, „sind zunächst eine großartige Sache. Viele Dinge wären ohne sie nicht machbar. Auch Wissenschaft wäre ohne das Internet und entsprechende Suchmechanismen oder Möglichkeiten der Datenerhebung heute gar nicht mehr vorstellbar.“

Die größten Probleme von auf Computern installierten Algorithmen sieht Katharina Zweig in der Manipulation von Daten. „Was uns im Moment sicher am meisten umtreibt, ist die Möglichkeit, Deep Fake zu erzeugen, also gefälschte Videoschnipsel, gefälschte Fotos, gefälschtes Audiomaterial, mit dem man Personen beliebige Äußerungen in den Mund legen kann, die jetzt schon sehr echt aussehen und in den nächsten Jahren noch sehr viel echter aussehen werden.“ Schon heute gebe es eine Menge wissenschaftlich gut abgesicherter Tatsachen, die von vielen Menschen dennoch offen in Zweifel gezogen würden. Wenn dann auch noch hinzukomme, dass nicht einmal mehr die Basisfakten geglaubt würden, werde Verständigung in einer Gesellschaft extrem schwierig.

Lösungen sieht die Informatikerin vor allem in technischen Entwicklungen. „Ich hoffe, dass es bald Kameras geben wird, die in die Aufnahmen eine Information mit einweben, sodass man im Nachhinein überprüfen kann, ob von dieser Kamera mit dieser Identifikationsnummer tatsächlich eine authentische Aufnahme gemacht wurde.“
 

Filterblasen

Etwas differenzierter sieht Zweig die von Eli Pariser 2011 in die Diskussion geworfene Gefahr gesellschaftlicher Filterblasen. „Pariser“, so Zweig, „hat seine Behauptung nie wirklich mit Studien erhärtet. Wir haben im Rahmen der Bundestagswahl 2017 versucht, das Ausmaß der Personalisierung von Suchergebnissen bei Googles Suchmaschine zu untersuchen.“ Zu diesem Zweck entwickelte die Gruppe um Zweig ein Browser-Plug-in, das bei den Teilnehmern der Studien zu demselben Zeitpunkt nach denselben Suchbegriffen suchte: einer Reihe von Politikerinnen und Politikern sowie Parteien. Die Ergebnisse etwa zum Suchbegriff „Angela Merkel“ desselben Zeitpunktes wurden dann daraufhin untersucht, ob sie individuell stark voneinander abwichen („Personalisierung“) oder ob eher alle Teilnehmerinnen und Teilnehmer im Wesentlichen dieselben Ergebnisse sahen. Das Resultat überraschte die Wissenschaftler: „Die Suchergebnisse waren weniger personalisiert, als wir erwartet hatten“, gesteht Zweig. „Wir haben zwar Unterschiede gefunden. Die waren aber vor allem regionaler Natur. Bei der Suche nach Parteien wurde dieser Studienteilnehmer eben an die jeweilige Ortsgruppe verwiesen – das war dann dasselbe Ergebnis für alle Bewohner der jeweiligen Stadt. Daher ist das in Bezug auf die Frage nach einer Personalisierung nicht so relevant.“

Google würde, so das Fazit, also weniger personalisieren als regionalisieren. Der Personalisierungsgrad sei außerdem zu gering, um eine Filterblasenbildung zu ermöglichen. Allerdings sei wünschenswert, dass solche Blackbox-Analysen permanent durchgeführt werden, damit die Gesellschaft im Falle von Veränderungen gegebenenfalls darauf reagieren kann. Bei Facebook sei das Problem, dass man vergleichbare Inspektionsmöglichkeiten nicht habe. Zweig: „Das halte ich persönlich für höchst problematisch. Denn im Moment haben wir nur Anekdoten. Insbesondere bei politischer Werbung haben wir keine Möglichkeiten zu überprüfen oder zu rekapitulieren, wann die aufgespielt wurde, wie oft sie aufgespielt wurde und welche Inhalte dort verbreitet wurden. Eine Demokratie sollte aber diese Einsichtsrechte haben.“

Allerdings gebe es Studien, wonach der Filterblaseneffekt in Deutschland auch deshalb nicht so groß sei, weil die Menschen hierzulande – anders etwa als in den USA – vergleichsweise viele Medien gleichzeitig nutzen. „Es gibt hier einfach nicht diese Abhängigkeit von einer Plattform wie etwa Facebook. Die meisten Menschen hierzulande schauen eben immer noch Fernsehen, hören Radio oder lesen eine Tageszeitung.“

Und schließlich habe Pariser die Rolle oder Funktion von Filterblasen falsch eingeschätzt. Es sei eben nicht so, dass diese vollständig undurchlässig sind. Viele Studien hätten gezeigt, dass sich insbesondere die jeweiligen Extremen sehr wohl mit dem anderen politischen Lager beschäftigen und auseinandersetzen. „Es ist eben nicht so, dass die Argumente der jeweiligen Gegenseite unbekannt sind. Sie werden nur anders bewertet.“ Es gehe weniger um Informationen, sondern um deren Interpretation. Und letztlich seien es die Deutungsräume, die sich gegenseitig abschotten würden.

Der Google-Suchmaschinen-Algorithmus ist ein sehr einfaches Beispiel für einen neuen Algorithmentyp, der versucht, aus Nutzerdaten Entscheidungsregeln abzuleiten.

Klassische Algorithmen lösen ein vorher spezifiziertes Problem. Die neuen Algorithmen versuchen, Korrelationen zwischen Daten und einem erwünschten Verhalten herzustellen und daraus Regeln abzuleiten.“

Man spricht auch von „maschinellem Lernen“. Ein Beispiel sei die Strafjustiz, wo aus Daten der Täter und der jeweiligen Rückfallquote Prognosen für zukünftiges Sozialverhalten erstellt würden. „Doch Menschen verhalten sich nicht unabhängig von anderen Menschen. Wenn ich nur die Eigenschaften einer Person kenne, nicht aber ihr soziales Umfeld, ist es eben schwer vorherzusagen, ob sie rückfällig wird oder nicht.“ Mithilfe von Algorithmen Regeln über zukünftiges menschliches Verhalten zu erstellen, bedarf daher einerseits einer ethischen Überprüfung und hat sich andererseits bisher als nicht sehr effektiv herausgestellt.
 


Ähnlich skeptisch steht Zweig der Möglichkeit gegenüber, menschliches Verhalten proaktiv etwa mittels Belohnungssystemen zu steuern: „Letztlich stellt sich immer die Frage, in welche Richtung unser Verhalten steuert und wer das in einer pluralistischen Gesellschaft bestimmen soll.“ Allerdings sieht sie keinen Grund, die zunehmende Digitalisierung aller Lebensbereiche aufzuhalten. „Das Sammeln der Daten an sich ist ja auch erst einmal gar nicht problematisch. Daten, etwa über den eigenen Energieverbrauch, können durchaus helfen, das eigene Verhalten zu optimieren.“ Wenn diese Daten aber etwa in krimineller Absicht in die Hände von Leuten gerieten, die daran abläsen, wann man für eine längere Zeit nicht zu Hause sei, sei das ein Problem.

Wir müssen einfach Regeln finden, die dafür sorgen, dass die Daten bei dem bleiben, der sie erzeugt.“

Ethische Grenzen würden immer dort überschritten, wo Menschen ausspioniert oder in ihrem Verhalten manipuliert würden.

Das alles setzt aber voraus, dass jeder Einzelne besser über die technischen Grundlagen und Möglichkeiten Bescheid weiß. Dies ist umso wichtiger, da Algorithmen und künstliche Intelligenz in absehbarer Zukunft noch viel mehr in unser tägliches Leben eingreifen werden. Im Oktober 2019 ist daher Katharina Zweigs neues Buch erschienen: Ein Algorithmus hat kein Taktgefühl. Unterstützt durch Illustrationen der von ihr entworfenen Figur KAI erklärt die Wissenschaftlerin darin, was Algorithmen sind, wie sie funktionieren, wo sie angewendet werden, welchen Entwicklungen wir gelassen entgegensehen können und wo wir als Bürger kritisch und aufmerksam sein müssen. „KAI“, erläutert die Wissenschaftlerin, „soll nicht nur dazu beitragen, das zunächst abschreckende Thema ‚Algorithmen‘ humorvoll zu präsentieren, sondern auch dabei helfen, falsche Scheu abzubauen und es im Sinne der Aufklärung zu entmystifizieren.“ Muhammad ibn Musa al-Chwarizmi hätte das sicher gefallen.

Dr. Katharina Anna Zweig ist Professorin für Sozioinformatik an der TU Kaiserslautern.

Dr. Alexander Grau arbeitet als freier Kultur- und Wissenschaftsjournalist u.a. für „Cicero“, „FAZ“ und den Deutschlandfunk.