„Mit Sandsäcken kommen wir nicht weiter“

Tilmann P. Gangloff im Gespräch mit Holger Volland

Der Digitalexperte Holger Volland warnt in seinem Buch Overload vor einer „KI-Medienflut“. Im Interview beschreibt der Informationswissenschaftler die Risiken von Künstlicher Intelligenz, mit deren Hilfe Bilder und Videos nahezu perfekt gefälscht werden können, aber auch den alltäglichen Nutzen, den sie den Menschen bescheren kann. Gerade für den Bildungsbereich stellt die Technologie eine Zeitenwende dar.

Online seit 02.07.2024: https://mediendiskurs.online/beitrag/mit-sandsaecken-kommen-wir-nicht-weiter-beitrag-772/

 

 

Herr Volland, alle reden von Künstlicher Intelligenz. Was ist das überhaupt?

Unter KI verstehen wir Computerprogramme, die in der Lage sind, Dinge zu machen, die wir normalerweise nur Menschen zuschreiben würden: Texte erstellen, Muster erkennen, Bilder analysieren, aber mittlerweile auch Bilder und Videos generieren oder Texte zusammenfassen.

Das klingt erst mal harmlos. Trotzdem fallen im Zusammenhang mit KI regelmäßig Begriffe wie „riskant“ oder „gefährlich“. Es gibt sogar die Forderung, die Entwicklung zu stoppen. Woher rührt diese Furcht?

Das hat verschiedene Gründe. Da ist zum einen die mythische Ebene: Maschinen, die ein bedrohliches Eigenleben entwickeln, sind ein klassisches Science-Fiction-Thema, das haben wir alle im Hinterkopf. Dann gibt es die ökonomische Ebene: Die meisten erfolgreichen KI-Projekte sind aus wirtschaftlichen Gründen initiiert worden. In den Unternehmen hat sich aber niemand vorher Gedanken darüber gemacht, welche Auswirkungen ihre Erfindungen auf die Gesellschaft haben könnten. Und schließlich ist Künstliche Intelligenz technologisch äußerst ambitioniert. Kaum jemand versteht, was da wirklich vor sich geht. Man stellt eine Frage und bekommt eine Antwort, aber der Prozess dazwischen ist selbst den Verantwortlichen ein Rätsel. Für Außenstehende gilt das natürlich erst recht, und es liegt nun mal in der Natur des Menschen, alles, was fremdartig ist, als Bedrohung zu empfinden.

Ihr neues Buch heißt Overload, Überbelastung, der Titelzusatz lautet Die KI-Medienflut kommt, Sie zitieren außerdem den Begriff „Infocalypse“. Ist das nicht alles etwas übertrieben?

Das habe ich mich auch gefragt, als ich mit den Recherchen begonnen und gelesen habe, bis 2026 würden 90 % aller digitalen Inhalte KI-generiert sein. Wie kommt man auf so eine Zahl? Dann habe ich festgestellt: In manchen Bereichen sind es schon heute über 90 %. Obwohl generative KI erst seit einem Jahr verbreitet ist, gibt es bereits ein riesiges Anwendungsfeld, zum Beispiel beim Chatbot ChatGPT oder bei der Suchmaschine Perplexity. Hinter der Stimme des Sprachsystems Siri von Apple verbirgt sich ebenso eine KI wie hinter vielen Werbebotschaften auf Instagram. Es ist also höchste Zeit zu fragen: Wie wird das erst in einigen Jahren aussehen?


Mitten in der Zeitenwende

Wir stecken also tatsächlich bereits mitten in einer „Zeitenwende“, wie Sie schreiben?

So ist es. Wenn wir beide uns persönlich treffen, spielt KI keine Rolle. Das ändert sich, sobald wir uns technologischer Hilfsmittel wie etwa unseres Smartphones bedienen und Facebook oder WhatsApp nutzen. Im Büro gilt das erst recht, wenn wir für eine Firma arbeiten, deren Daten auf Servern gespeichert sind. Niemand, der ein Bankkonto oder eine Versicherung hat, kann von sich behaupten, in seinem Leben spiele KI keine Rolle.
 


Es wäre ein Fehler, Künstliche Intelligenz grundsätzlich zu verteufeln; aber man darf die Gefahren nicht außer Acht lassen.“



Wo kann Künstliche Intelligenz im Alltag eine Hilfe sein?

KI ist zum Beispiel in der Lage, Bilder zu analysieren, das ist eine große Hilfe für Menschen mit Sehbehinderung. Man filmt mit der Kamera eine Straßensituation und die KI beschreibt, was sie sieht. Mein Vater kann nicht mehr gut lesen, aber noch sehr gut hören; mithilfe von KI kann ihm ein Zeitungstext vorgelesen werden. Bei meiner Arbeit hilft mir KI, eine Vielzahl von Texten in unterschiedlichen Sprachen zu überblicken. Ich hätte gar keine Zeit, das alles zu lesen, weshalb ich sie von einer KI zusammenfassen lasse und dann entscheide, was wichtig ist.

Welche Effekte jenseits der individuellen Nutzung gibt es?

Nur zwei Beispiele: KI kann Unternehmen helfen, ihre Ressourcen effizienter zu nutzen, gerade im Bereich der Logistik; das verringert den CO2-Ausstoß. Eine große Hilfe ist KI auch in der Medizin, weil beispielsweise Hautkrebs früher erkannt werden kann. Es wäre ein Fehler, Künstliche Intelligenz grundsätzlich zu verteufeln; aber man darf die Gefahren nicht außer Acht lassen.


„Gift für die politische Meinungsbildung“

Das gilt zum Beispiel für die Mediennutzung. Mit diesem Bereich beschäftigen Sie sich in Ihrem Buch sehr ausführlich. Lauern hier die größten Risiken?

In diesem Punkt sehe ich tatsächlich eine enorme Sprengkraft, weil dieses Potenzial gerade für politische Zwecke missbraucht wird. Es geht dabei nicht nur um manipulierte Informationen oder sogenannte Deepfakes, nahezu perfekte Fälschungen von Bildern, die den politischen Gegner diskreditieren. Schon die Möglichkeit einer Täuschung sorgt dafür, dass wir mittlerweile vielen Informationen im politischen Umfeld nicht mehr trauen. Das allein ist bereits Gift für die politische Meinungsbildung.

Was wird für seriöse Medien die größere Herausforderung sein: Informationen auf ihren Wahrheitsgehalt zu überprüfen oder sich das Vertrauen der Menschen zu erhalten?

Für mich als Medienmacher ist der zweite Bereich der schwierigere. Die Medien haben in den letzten Jahren viel Vertrauen verloren, gerade bei Jüngeren, für die mittlerweile Social Media zur wichtigsten Informationsquelle geworden sind. Ausgerechnet in diesem Bereich wimmelt es jedoch von fragwürdigen Absendern, die zudem oft gar nicht zu erkennen sind. Gerade auf TikTok sind rechtsextremistische Gruppierungen stark vertreten, was zur Folge hat, dass mehr Menschen nicht nur deren Nachrichten, sondern auch ihre Werte teilen. Umso wichtiger ist es für Anbieter wie Magazine, Tageszeitungen oder die öffentlich-rechtlichen Sender, die Gewissheit zu verbreiten, dass ihre Quellen gut recherchiert und sämtliche Fakten überprüft sind. Diese Medien haben in Zukunft eine noch größere Verantwortung.
 


Die Medien haben in den letzten Jahren viel Vertrauen verloren, gerade bei Jüngeren, für die mittlerweile Social Media zur wichtigsten Informationsquelle geworden sind.“



Auch die Kriegsführung, heißt es, werde sich in den sogenannten Cyberspace verlagern. Ist Deutschland für den „Cyberwar“ gewappnet?

Jedenfalls nicht so, wie wir es sein sollten. Das ist ohnehin eine Herausforderung, der wir uns im Rahmen der EU und der NATO gemeinsam stellen müssen. Russland investiert mittlerweile enorme Summen in digitale Angriffsformen, dagegen ist ein einzelnes Land machtlos. Die Bundesregierung hat die Gefahr erkannt, aber ich habe meine Zweifel, ob wir derzeit in der Lage wären, einen massiven Angriff auf unsere digitale Infrastruktur abzuwehren.


„Höchst manipulativ“

Im Vergleich dazu ist die Werbung ein eher harmloser Bereich. Mithilfe von KI kann Reklame konsequent personalisiert werden. Ist das gut oder schlecht?

Werbung ist ja nicht per se böse. Wenn mir etwas empfohlen wird, das meine Lebensqualität steigert, empfinde ich intelligente Werbung als Vorteil. Ein Problem sehe ich in der Manipulierbarkeit, weil zum Beispiel mein Bildschirmgerät erkennen kann, dass ich abends nicht nur müde und hungrig bin, sondern mich etwa aufgrund eines Streits innerhalb der Familie womöglich auch noch in einer verletzlichen Lage befinde. Wenn dann ein Werbespot für Alkohol eingespielt wird, der mich in diesem Moment besonders gut erreicht, halte ich das für höchst manipulativ. Wir werden als Verbraucher also noch genauer darauf achten müssen, in welcher Situation uns eine Werbebotschaft erreicht.

Sie haben noch vor gar nicht langer Zeit behauptet, Maschinen könnten nie so kreativ sein wie der Mensch. Müssen Sie das heute revidieren?

Ich habe aber auch gesagt: Die Gefahr liegt nicht in der Kreativität selbst. Maschinen sind nicht kreativ. Die Gefahr liegt in der Wirkung. Deshalb würde ich den Satz heute so formulieren: Die Wirkung dessen, was Maschinen generieren können, also Sprache, Texte, Bilder oder Filme, kann so überzeugend sein, dass die Maschinen dem Menschen in nichts mehr nachstehen. Ob das nun gut oder schlecht ist, hängt immer vom Inhalt ab. Letztlich spielt es keine Rolle, ob ein menschenfeindliches Pamphlet von einem Rechtsextremisten oder von einer Maschine verfasst worden ist. Aber dank der Maschine hat die Botschaft eine ungleich größere Verbreitungsmöglichkeit.
 


Die Wirkung dessen, was Maschinen generieren können, also Sprache, Texte, Bilder oder Filme, kann so überzeugend sein, dass die Maschinen dem Menschen in nichts mehr nachstehen.“



Schon jetzt lassen sich viele Menschen von Algorithmen empfehlen, welche Filme und Serien sie sehen, welche Musik sie hören, welche Bücher sie lesen. Ist das auch problematisch?

Vor allem ist das natürlich praktisch und zeitsparend, erst recht nach einem langen Arbeitstag. Wenn ich mich jedoch nicht bloß einseitig, sondern umfassend informieren will und breit gefächerte Interessen habe, darf ich die Auswahl nicht den Algorithmen überlassen, aber das erfordert natürlich Aufwand. Angesichts des immer größeren medialen Angebots fällt es zunehmend schwer, den inneren Schweinehund zu überwinden, der mir sagt: Es ist doch alles schon ausgewählt, greif zu!

Schon vor gut fünfzig Jahren beklagte die Kommunikations- und Medienwissenschaft eine wachsende Wissenskluft zwischen Menschen mit höherer Schulbildung und dem sogenannten Bildungsprekariat. Mittlerweile spricht die Forschung auch von einer digitalen Spaltung. Kann KI diese Kluft verkleinern?

Einerseits ja, weil KI komplexe Sachverhalte in leichter Sprache erklären oder in Bilder übersetzen kann. Auf diese Weise können Wissenslücken geschlossen und komplexe Informationen so gestaltet werden, dass auch Menschen mit geringem Wissensstand einen Erkenntnisgewinn haben. Andererseits wird es aber auch eine KI-Kluft geben. Nehmen wir das Bürobeispiel: Da gibt es Leute, die Tools wie ChatGPT oder Perplexity heute schon intensiv nutzen, um ihre Arbeit schneller zu erledigen. Andere, die sich damit nicht auskennen, weil ihnen die entsprechenden Grundkenntnisse fehlen, haben natürlich einen Nachteil. Je größer die Verbreitung dieses Handwerkszeugs wird, desto wichtiger wird es sein, dass sich alle damit auseinandersetzen.
 

Digitale Kluft

Vermutlich wären vor allem die Schulen gefordert, um diese Kenntnisse zu vermitteln, aber sind die Lehrkräfte in digitalen Fragen nicht schon jetzt überfordert?

Das ist in der Tat ein erhebliches Problem: Die technologische Entwicklung schreitet derart schnell voran, dass weder unser Bildungssystem noch die Politik Schritt halten können. Ein Freund von mir ist Lehrer und regt seine Schüler dazu an, reflektiert mit ChatGPT zu arbeiten, aber viele seiner Kolleginnen und Kollegen haben selbst keine Ahnung von den Tools. Die digitale Kluft gibt es also auch an den Schulen, sie zieht sich durch alle gesellschaftlichen Bereiche.
 


Wir müssen uns also alle fragen, wie wir unsere Welt gestalten wollen, damit diese Entwicklung nicht ins Verderben führt: Was bedeutet das für meinen Alltag, für meinen Beruf, für die Bildung und Ausbildung meiner Kinder, für das lebenslange Lernen?“



Um auf das Bild der Flut zurückzukommen: Aufhalten lässt sie sich nicht mehr. Sind Sie dennoch zuversichtlich, dass sie sich in produktive Bahnen lenken lässt?

Aus genau diesem Grund habe ich Overload geschrieben: Ich will den Leuten klarmachen, dass wir dieser Flut nicht hilflos ausgeliefert sind. Mit Sandsäcken kommen wir jedoch nicht weiter. Stattdessen sollten wir akzeptieren, dass ein Großteil unserer Gesellschaft und unserer Medienlandschaft längst digitalisiert und mit Künstlicher Intelligenz durchsetzt ist. Wir müssen uns also alle fragen, wie wir unsere Welt gestalten wollen, damit diese Entwicklung nicht ins Verderben führt: Was bedeutet das für meinen Alltag, für meinen Beruf, für die Bildung und Ausbildung meiner Kinder, für das lebenslange Lernen? Wir alle sind gefordert, die Flut nicht einfach passiv über uns hereinbrechen zu lassen. Wir müssen lernen, sie für uns nutzbar zu machen.

Sie haben eingangs die dystopischen Science-Fiction-Entwürfe erwähnt, in denen Maschinen die Weltherrschaft übernehmen. Werden wir in nicht allzu ferner Zukunft von einer Künstlichen Intelligenz regiert?

Nein, daran glaube ich überhaupt nicht. Ich sehe stattdessen eine ganz andere und sehr realistische Gefahr: Es wird höchste Zeit, dass wir den außerordentlich einflussreichen KI-Unternehmen mehr gesellschaftliche Kooperation abringen. Schon jetzt haben einige wenige Konzerne Macht über fast alle unsere Daten und deren Auswertung. Umso wichtiger wäre es, diese Firmen zu deutlich mehr Transparenz zu zwingen.

Literatur

Volland, H.: Overload. Die KI-Medienflut kommt. Was ist noch echt, was Fake? Hamburg 2024

Holger Volland ist Geschäftsführer des Wirtschaftsverlags brand eins (Hamburg) und schreibt als Autor über die Themen Transformation, Medienentwicklung und Digitalisierung.

Tilmann P. Gangloff ist freiberuflicher Medienfachjournalist.