Aktuelle Themen:
EMOTIONEN  |  GEWALT  |  KI  |  SOCIAL MEDIA

 

Die Zukunft der KI

Hohe Beschleunigung, langsame Regulierung

Joachim von Gottberg im Gespräch mit Michael Schwertel

Innovationen bei Kommunikationsmedien gab es immer: die Erfindung der Schrift, den Buchdruck, Film und Fernsehen und das Internet. Was bei der KI anders ist: die unglaubliche Geschwindigkeit, mit der sich diese Technik entwickelt. Michael Schwertel ist Professor für Medienmanagement und digitales Marketing an der CBS University Of Applied Sciences. Wir sprachen mit ihm über algorithmische Zukunftszenarien, die Chancen und Risiken für Nutzende sowie Verbote und Teilhabe. 

Online seit 19.02.2026: Link

In der Berufswelt führt der Einsatz von KI in vielen Bereichen zur Arbeitsentlastung. Wie wird sich die Arbeitswelt dadurch verändern?

Wahrscheinlich wird in vielen Arbeitsplätzen zukünftig auf irgendeine Weise KI eingesetzt. Das eigentliche Problem liegt nicht darin, dass die Arbeit wegrationalisiert oder von der KI übernommen wird, sondern in der Geschwindigkeit, mit der das geschieht. Innovationen, die den Menschen Arbeit abgenommen haben, gab es schon immer, aber wir hatten mindestens 25 Jahre Zeit, neue Jobs und Tätigkeiten zu schaffen. Heute werden wir dagegen wochenweise mit so unvorstellbaren Innovationen überrascht, dass wir gar nicht die Zeit haben, zu überlegen, wie wir damit umgehen. Es ist – bildlich gesprochen – so, als wäre einen Tag nach Gutenbergs Erfindung der Druckerpresse das Internet erfunden worden. Wir befinden uns in einer ständigen Überforderung.
 


Es ist […] so, als wäre einen Tag nach Gutenbergs Erfindung der Druckerpresse das Internet erfunden worden.



Wie wird sich die KI weiterentwickeln? Der Google-Entwicklungschef Ray Kurzweil prognostiziert etwa für die Jahrhundertwende den Zustand der Singularität, also das Zusammenwachsen von Zeit und Raum. In dem Film 2001: Odyssee im Weltraum von Stanley Kubrick (1968) übernimmt der Computer HAL die Herrschaft über das Raumschiff. Besteht diese Gefahr? Könnten wir zum Sklaven der KI werden?

Die Menschen bekommen unheimlich viele Ängste aufgrund von Filmen mit destruktiven Zukunftsvisionen. In den USA können die Tech-Bros eine ganze Menge Probleme schaffen, wenn sie beispielsweise in eigenen Ländern Sozialexperimente durchführen würden. Da habe ich weniger Angst vor der KI als vor den Menschen, die sie besitzen und steuern …

Bei Putin oder auch Trump hätte ich da als Auftraggeber Bedenken …

Ja, Elon Musk hat zum Beispiel öffentlich angekündigt, das gesamte Wissen der Menschheit als Trainingsdaten für eine neue KI zu überarbeiten, das verheimlicht er nicht mal. Zwar waren die Stammdaten immer schon da, aber er will die Daten manipulieren, und das kann gefährlich werden. Ray Kurzweil hat seine Prognose zunächst schon für 2029 angegeben, er rennt seiner Prognose also hinterher. Bei einem exponentiellen Wachstum ist der genaue Zeitraum schwer zu prognostizieren. In Bezug auf die Menschheitsgeschichte ist es auch weniger wichtig, ob jetzt diese Generation oder die nächste Generation betroffen sein wird. Aber irgendwann wird das kommen, und die Frage ist: Wie wollen wir damit umgehen? Darüber müssten wir uns schon jetzt Gedanken machen, denn morgen könnte es zu spät sein.

Der Bonner Philosoph Markus Gabriel sieht die Gefahr weniger dramatisch. Er meint, die KI besitze kein Wesen, keinen eigenen Willen, keine Emotionen, keine eigene Ethik, sondern sie folge den Regeln oder der Ethik ihrer Programmierer.

Ich will jetzt nicht zu dystopisch sein, aber: Eine KI kann immer auch Fehler machen. Wenn ich ihr zum Beispiel sage: Versuche, bestmöglich zu arbeiten, könnte sie das auch so interpretieren: Okay, ich kann besser arbeiten, wenn es keinen Sauerstoff auf der Welt gibt, dann erodieren meine Festplatten nicht. Sie würde das priorisieren, und wir Menschen hätten Pech. Solche Probleme treten immer wieder auf. Wir denken, sie ist sehr schlau, aber sie ist ja eigentlich nur eine Simulation von Intelligenz, und bei einem Missverständnis kann es dann sein, dass einfache Fehler begangen werden, die für uns mit unserer Erfahrung als unintelligent erscheinen. Aber eine KI hat diese Erfahrung ohne ein reales menschliches Leben nicht. Ein schönes Beispiel: Wenn ein Außerirdischer auf dem Mars wäre und er wüsste alles über Wasser – dass es bei 100 Grad verdampft und bei null Grad gefriert –, dann wüsste er aber nicht, wie es sich anfühlt, wenn man Wasser ins Gesicht bekommt, wenn man am Strand spazieren geht oder in die Wellen springt. Er hat eine andere Erfahrung. Auch eine KI ist von einem anderen Stern. Man kann sie nutzen, aber wenn man ein paar Aspekte übergeht, könnte das zu sehr drastischen Konsequenzen führen.
 


Wir denken, die KI ist sehr schlau, aber sie ist ja eigentlich nur eine Simulation von Intelligenz.



Wenn wir etwa Jugendliche mit KI therapieren lassen, sollten diese wissen, was eine Psychotherapie ist und dass diese ein Studium voraussetzt. Und sie müssten wissen, mit welchen Trainingsdaten die KI gefüttert wurde. Aber wir probieren die KI einfach aus und hoffen, dass nichts schiefgeht. Dabei wird vergessen, dass die deutschen Psychotherapiedaten nicht öffentlich sind. Wenn jemand einen schweren Verlauf in der Psychotherapie hat, dann wird das zwar aufgeschrieben, aber niemals irgendwo so freigegeben, dass die KI sie als Trainingsdaten nutzen kann. Sie bekommt vielleicht irgendwelche geleakten Daten aus den USA, aber die gelten nicht unbedingt für deutsche Jugendliche.

Trotzdem werden sie dann damit therapiert, und dabei könnte die KI falsche Ergebnisse liefern. KI ist immer darauf programmiert, die Nutzer zu bestätigen, aber in der Psychotherapie gilt oft auch genau das Gegenteil: dass man bestimmte falsche Annahmen oder Denkmuster nicht bestätigt. Wer Selbstmordgedanken hat und das der KI offenbart, könnte von ihr dann darin unterstützt werden.

Bei sozialen Netzwerken gibt es gegenwärtig laute Forderungen nach Regulierung: Etwa 70 Prozent der Deutschen fordern ein Verbot für TikTok und Co. für unter 16-Jährige. Auch die Politik denkt vor allem über ein Verbot nach. Vertreter der Medienpädagogen und -bildung sehen in einem Verbot die Ausgrenzung von Heranwachsenden von der medialen Teilhabe. Wie sehen Sie das?

Ich sehe das Problem gar nicht so sehr bei den Jugendlichen unter 16 Jahren, sondern in der gesamten Gesellschaft, weil 16-Jährige oder auch 14-Jährige oft besser mit Social Media umgehen können als Erwachsene, die sich dann vielleicht mit Mitte 40 auf Verschwörungstheorien einschießen. Das ist eher ein Bildungsproblem als ein Altersproblem. In Indonesien gibt es etwa die Verpflichtung, ab 40 einen KI-Führerschein zu machen. Wir bräuchten eine lebenslange Weiterbildungsinitiative, damit wir überhaupt wissen, wie Medien mit KI funktionieren. Man kann nicht sagen: Wir wollen ein Verbot für Kinder oder Jugendliche, aber der Rest der Bevölkerung ist uns egal.
 


Wir bräuchten eine lebenslange Weiterbildungsinitiative, damit wir überhaupt wissen, wie Medien mit KI funktionieren.



In Europa will man sich mehr von den USA unabhängig machen, es wird über digitale Souveränität gesprochen. Open-Source-Software soll verstärkter Anwendung in Deutschland finden. Ist das ein erster Schritt?

Das finde ich absolut notwendig. Wenn wir über die Ausgaben für Bürgergeldempfänger streiten und uns das Milliardenbudget ansehen, das der deutsche Staat für Microsoft-Lizenzen ausgibt, könnte man es auch einfacher haben. Dann wären auch die Daten sicherer. Die Daten sind das neue Öl der jetzigen Generation, darum sollten wir es selbst nutzen und nicht an andere verschenken.

In Bezug auf soziale Medien spielen verschiedene Faktoren für die Verbotsforderung eine Rolle: Dabei geht es um Suchtfaktoren, um Stress hervorgerufen durch den permanenten sozialen Vergleich und auch um unzulässige Inhalte wie Pornografie, Gewaltdarstellungen, Hassreden oder demokratiefeindliche Parolen.

Die Frage ist, wie weit wir das zulassen. Soziale Netze können gesteuert werden. Es ist ja nicht so, dass der Algorithmus nur nach links oder nach rechts ausschlagen kann. Wir können ihm auch bestimmte Ziele vorgeben. Zwar binden die links- oder rechtsextremen Themen mehr Aufmerksamkeit als „langweilige“ Positionen der Mitte. Die Frage ist aber: Welche Wirkung hat das? Die Headline muss halt so interessant sein, dass die Leute das klicken – ob das jetzt interessant ist oder nicht, wird nicht von den Nutzern entschieden, sondern vom Algorithmus. Es geht nicht um Relevanz, sondern nur um Entertainment. Wenn die Aufregung nicht mehr funktioniert, dann muss man Content liefern, der noch aufregender ist. Ich halte es für einen Fehler, wie wir generell mit Nachrichten umgehen: Man rennt den Aufregern hinterher.
 


Es geht nicht um Relevanz, sondern nur um Entertainment.



Menschen unter 30 Jahren schauen praktisch gar nicht mehr Fernsehen. Sie informieren sich fast ausschließlich über das Internet und soziale Medien und sind damit teilweise sehr gut informiert. Wenn man das Netz nicht nur zur Unterhaltung nutzt, sondern auch reflektiert nach Informationen sucht, kann er oder sie die auch finden. Ein Verbot könnte Jugendliche ganz von der politischen Bildung abschneiden.

Inhalte, die desinformierend sind, müssen die Plattformen regulieren. Das wäre besser, als Kinder von diesem Medium auszuschließen. Generell finde ich aber ein Verbot als Diskursidee ganz interessant, weil man sich dadurch mal darüber Gedanken macht, wie man mit problematischen Inhalten umgehen will.

Inzwischen werden TikTok und Co. immer mehr zu Marktplätzen: Influencer promoten ein Produkt und bieten einen Link, unter dem man es mit einem Klick bestellen kann …

Ich würde da meine Kreditkartennummer nicht eingeben. Meine Studierenden befragt, gab immerhin die Hälfte an, dass sie das schon einmal gemacht haben. Unter den jungen Leuten scheint es selbstverständlich, solche Kaufangebote zu nutzen.

Das sogenannte Haftungsprivileg für Plattformen besagt, dass sie erst dann für illegale Posts verantwortlich sind, wenn sie darüber informiert wurden. Gegenwärtig wird darüber diskutiert, dieses Privileg abzuschaffen. Das heißt: In dem Augenblick, in dem etwas bei einem Anbieter zu sehen ist, muss er es auch verantworten. Rein theoretisch: Wäre das für die Anbieter umsetzbar?

Ja, absolut. Es ist totaler Quatsch, wenn die Plattformbetreiber behaupten, sie können mit ihrer KI nicht kontrollieren, was auf ihrer Plattform passiert.

Wie können sie die Algorithmen einstellen: Wenn man jemandem mit Gewalt oder gar dem Tod droht oder volksverhetzende Inhalte mit den klassischen Begriffen postet, geht das wahrscheinlich gut, weil die KI die Begriffe leicht findet. Aber bei Hass und Beleidigungen geht es um Bewertungen, die selbst bei Gerichten unterschiedlich beurteilt werden. Das zeigt zum Beispiel der Fall von Renate Künast: Die Beleidigungen ihr gegenüber wurden von den einen Gerichten als zumutbar, von anderen als strafbar eingestuft.

Unsere Gesellschaft, vertreten durch die Politik, müsste eigentlich klar definieren, wo die Grenzen sind, sodass Anbieter entsprechende Posts filtern können. Das sollte eigentlich überhaupt kein Problem sein. Aber ich habe manchmal das Gefühl, dass die Nutzer auf den Plattformen auch deshalb verbal aufrüsten, weil sie meinen, man könne sie als Verfasser nicht zurückverfolgen.
 


Unsere Gesellschaft, vertreten durch die Politik, müsste eigentlich klar definieren, wo die Grenzen sind, sodass Anbieter entsprechende Posts filtern können.



Es gibt Forderungen, dass man demnächst nur noch mit Klarnamen im Netz agieren darf. Dann könnten die Urheber von Fakes, Blödsinn oder Verrohung leichter ermittelt werden.

Man könnte über eine Hinterlegung einer Kopie des Ausweises nachdenken, dann wären die Urheber einigermaßen sicher auffindbar.

Sie veröffentlichen seit einiger Zeit auf TikTok kurze Videos, in denen Sie unterschiedliche Funktionsweisen der KI erklären. Wie sind Sie darauf gekommen?

Ich wollte wissen, wie das funktioniert. Oft wissen Nutzende, vor allem Politiker nicht, wie die KI dahinter funktioniert und wie sie richtig genutzt werden kann, damit sie einem Vorteile und Sichtbarkeit verschafft. Was ich auf TikTok mache, ist eine Art Medienpädagogik, aber auf eine erklärende Weise.

 


Das Interview erscheint in einer ausführlicheren Fassung im JMS-Report (01/2026).

Prof. Michael Schwertel ist Professor für Medienmanagement, Keynote Speaker und Experte für Künstliche Intelligenz, Robotik und digitale Innovation. Er verbindet wissenschaftliche Tiefe mit langjähriger Praxis in Medien, Wirtschaft und Technologie.

Prof. Joachim von Gottberg war bis Dezember 2023 Chefredakteur der Fachzeitschrift „mediendiskurs“ und ist aktuell Chefredakteur der Zeitschrift „Jugend Medien Schutz-Report“.