Künstliche Intelligenz

Was sie kann, wem sie nützt und wem sie schadet

Joachim von Gottberg im Gespräch mit Karsten Hartmann

Künstliche Intelligenz, kurz KI, gilt als Schlüssel für die Bewältigung zukünftiger Probleme. Die Transhumanisten hoffen sogar, dass die biologischen Vorgänge des Sterbens erforscht werden und sehen die Unsterblichkeit in greifbarer Nähe. Sie könnte uns aber auch entgleiten und die Weltherrschaft übernehmen. Industriestaaten, allen voran China, stecken mit der Hoffnung auf ökonomischen Aufschwung enorme Summen in die Entwicklung intelligenter Programme und Roboter. KI-Systeme könnten Arbeitsprozesse übernehmen und würden weder wegen Krankheit oder Urlaub ausfallen. Was aber machen die Menschen, die dadurch ihren Job verlieren? Der Informatiker Prof. Dr. Karsten Hartmann beschäftigt sich seit 1982 mit der „künstlichen Intelligenz“, er baute intelligente Diagnosesysteme und lehrt Informatik und Künstliche Intelligenz an der Hochschule Merseburg. tv diskurs sprach mit ihm.

Online seit 25.10.2019: https://mediendiskurs.online/beitrag/kuenstliche-intelligenz-1/

Vollständiger Beitrag als:

Was hat man 1982 unter künstlicher Intelligenz verstanden?

Man hat sich genau dasselbe vorgestellt wie heute auch. Es gab auch damals schon die einen, die sagten: Wir wollen einen künstlichen Menschen bauen, und andere, die unsere menschlichen Fähigkeiten erweitern wollten. Robotertechnologie gab es damals auch schon. Man kann also zwischen starker und schwacher KI unterscheiden. Ich bin eher der Meinung: Wir wollen durch KI neue Fähigkeiten zur Verfügung stellen, die den Menschen bei verschiedenen Arbeits- oder Lebensprozessen unterstützen.

Ist das eigentlich wirklich Intelligenz oder sind es einfach Programme, die in der Lage sind, nach einem bestimmten Algorithmus und nach einem bestimmten System Aufgaben oder Handlungen auszuführen?

Der englische Begriff Artificial Intelligence verweist darauf, dass es eher um scheinbare Intelligenz geht – die Programme verhalten sich, als wären sie intelligent. Die Menschen, die sich am Anfang mit KI beschäftigt haben, hatten auch gar nicht den Anspruch, Intelligenz zu erzeugen. Die starke KI – wir wollen einen künstlichen Menschen bauen, in den wir unser Gehirn beziehungsweise unser Wissen übertragen, um damit letztlich unsterblich zu werden – ist eher Science-Fiction. Die Forscher wollen etwas bauen, das nach außen hin intelligent erscheint. Unsere Computer oder unsere Smartphones wirken nach außen hin auch manchmal intelligent. Dabei besitzen sie nicht einmal eine mit Tieren vergleichbare Intelligenz. Um tatsächlich KI herzustellen, müssen wir uns zunächst mit der Frage beschäftigen, was wir eigentlich unter Intelligenz verstehen. Wissen wird strukturiert in unserem Kopf abgebildet. Aber was ist Wissen? Wie ist das abgebildet im Kopf? Wie wird Wissen verwendet? Wie haben die einzelnen Spezies Wissen erlangt und was haben sie daraus gemacht? Wie verwenden sie ihr Wissen zum Beispiel in ihrer Umwelt? Was ist überhaupt ein Weltmodell – wie bilden wir die Welt in unserem Kopf ab? Selbst wenn nur eine scheinbare Intelligenz da ist, müssen wir uns mit Intelligenz beschäftigen. KI wirkt nach außen, als ob sie intelligent handeln würde. Daher müssen wir uns mit menschlicher Intelligenz beschäftigen, um diese Verhaltensweise glaubhaft erzeugen zu können.

Nehmen wir mal die App der Deutschen Bahn: Sie ermöglicht mir, Verbindungen herauszusuchen, Tickets zu buchen, sie kann Verspätungen mitteilen oder ankündigen, dass der Zug wegen einer Bombenentschärfung auf der Strecke gerade heute ausfallen muss. Ich muss weder ins Reisebüro noch an einen Bahnhofsschalter, habe meine Kreditkarte hinterlegt und kann Bahnreisen über mein Smartphone organisieren.

Die meisten Programme der KI funktionieren so. Man kann sie nachvollziehen, wenn man es will. Der Vorteil der KI ist, dass sehr viele Informationen gesammelt werden können. Bei der Bahn-App kann man das ganz gut erklären. Wir haben uns die Bahnkunden angeschaut und bauen jetzt „den Kunden“ virtuell im Netz nach. Wir wissen, was er will und womit ich ihm vielleicht helfen kann. Man kann über eine Wissensrepräsentation den Kunden abbilden und ihm dann zielgerichteter helfen. Wir lernen im Laufe der Zeit immer dazu, gewinnen zusätzliche Informationen und lernen den Bahnkunden, den Patienten oder den Musik- und Filmgeschmack der Nutzer von Streamingdiensten immer besser kennen. So gewinnen wir einen riesigen Pool an Fallbeispielen, die das Programm bei neuen Kunden oder Patienten zur Verfügung hat. Somit wird es immer genauer und besser, es sammelt statistische Erfahrungen und kann daher etwa bei Spotify unseren Musikgeschmack vorhersagen. Wenn wir genau recherchierten, könnten wir verstehen, wie das Programm so etwas macht. Aber aufgrund der vielen Informationen, die da drinstecken, würde das sehr lange dauern. Der Programmierer weiß auch nicht immer im Voraus, was bei bestimmten Aufgaben zum Beispiel auf den Roboter zukommen kann. Er kann nicht mit allen Eventualitäten rechnen. Und dann gibt es eben den kleinen Robbie, der auf dem Mars ständig an einen Stein fährt, von dem der Programmierer nichts gewusst hat, und daran hängen bleibt.

Beim nächsten Mal weiß man: Der fährt da immer irgendwo gegen, also müssen wir ein Programm bauen, das Gegenstände erkennt und Robbie um diese herumführt. Im Grunde ist das ein klassisches Trial-and-Error-Prinzip.

Ja, klar, wir lernen, scheitern und verbessern – Trial and Error. Wichtig ist auch die Interaktion zwischen den verschiedenen Wissenschaftszweigen. Ich habe schon mit Philosophen zusammengearbeitet, mit Psychologen, Medizinern, Maschinenbauern oder Elektrotechnikern. Ich habe früher in der Industrie Expertensysteme für Transferstraßen-Diagnostik gebaut, mit dem Ziel, Fehler in der Transferstraße zu finden. Eine Transferstraße ist ein kompliziertes Verbundsystem von Förderbändern, die zum Beispiel Teile von Pkws automatisch zusammenbauen. Und wenn der Prozess an irgendeiner Stelle gestört wird, kann es zum Stillstand der Produktion kommen, was zu hohen Kosten führt. Eine solche Anlage besteht aus sechs oder sieben Stationen. Da haben Sie 3.000 bis 4.000 Teile, die defekt sein können und ausgetauscht werden müssen. Das muss sehr schnell gehen, denn wenn die Transferstraße anhält, hat man große finanzielle Verluste. Das ist aber keine KI, sondern reine Produktionstechnik. Auch dafür musste man eine Menge Programme schreiben, denn das muss ja alles ineinandergreifen. Aber diese Maschine funktioniert im Grunde rein mechanisch. Wenn sie kaputtgeht, weiß sie nicht mehr, was sie machen soll.

Gehen wir jetzt zum nächsten Schritt: dem maschinellen Lernen.

Das ist etwas ganz anderes. Die Steuerungsprogramme, welche die Transferstraßen steuern, sind speicherprogrammierbare Steuerungen, die in Schrittketten-Programmen realisiert sind. Maschinelles Lernen ist etwas ganz anderes. Dabei geht es zum Beispiel um Strukturen, in denen Wissen repräsentiert wird. Beim maschinellen Lernen werden bestimmte Verfahren untersucht, die es dem Computer erlauben, selbst solche Wissensrepräsentationen aufzubauen. Die Europäer setzen dabei vor allem auf viel Statistik, die Franzosen arbeiten mit Analogien. Im maschinellen Lernen gibt es sogenannte Fallbeispiele: Man sammelt typische Fälle in einem bestimmten Kontext.
Man baut also eine Falldatenbank auf, und wenn jetzt etwas Unerwartetes passiert, überprüft die Maschine, welche dieser gespeicherten Fälle passen könnten und welche Reaktionen daraus resultieren. Je mehr wir erfahren haben und je länger es diese Maschine gibt, desto mehr Fallbeispiele kann sie sammeln und desto besser funktioniert sie. Die Maschine ist so programmiert, dass sie immer, wenn etwas Neues auftritt, überprüft: Kann ich das Neue irgendwie mit etwas, was ich schon weiß, in Verbindung bringen? Oder gibt es Statistiken, die eine bestimmte Reaktion als wahrscheinlich richtig erscheinen lassen? Zum Beispiel könnte man das Profil eines Kunden mit Programmen des maschinellen Lernens aufbauen. Man schaut sich zuerst die Aktivitäten des Kunden an und baut dann eine Repräsentation, ein Abbild des Kunden in Daten. Das ist jetzt nur eine kleine Anwendung des maschinellen Lernens, kann also nur als Beispiel dienen. Und dann packe ich das in ein Netzwerk. Wir bauen also Intelligenz nach, indem wir sie technisch kopieren.

Maschinelles Lernen heißt, dass eine Maschine programmiert wird, etwas zu tun, und wenn etwas aus Unkenntnis nicht programmiert werden kann, ist die Maschine in der Lage, mit dieser Herausforderung fertigzuwerden, ohne dass ich sie neu programmieren muss?

Eigentlich ist es primitiver. Maschinelles Lernen heißt eigentlich, dass man ein Programm baut, das lernen kann. Mehr kann das nicht. Was es lernt, weiß man zunächst noch nicht. Nehmen wir zum Beispiel die Spracherkennungsprogramme. Die mussten Sie früher erst einmal trainieren, indem Sie zum Beispiel einen bekannten Text vorlasen. Das Programm vergleicht, wie der Nutzer zum Beispiel das Wort „Turm“ ausspricht. Nachdem der Trainingstext verarbeitet ist, arbeitet das Programm mit unbekannten Wörtern, wobei es immer wieder Fehler macht. Die merkt sich das Programm, es passt sich an meine Eigenarten beim Sprechen oder meiner Wortwahl an. Am Anfang gibt es einen Pfad, den das Programm schon kennt, durch den es dann die Phonetik dazu erstellt. Und jetzt gibt es weitere neue Begriffe, die das Programm noch nicht gekannt hat. Ich muss also immer wieder Respons geben, sonst kann die Maschine nicht lernen. Heute sind die Programme allerdings schon weiter. Sie haben nämlich inzwischen so viele Daten zur Verfügung, dass fast alle möglichen Variationen des Sprachbildes bekannt und verarbeitet sind. Neuere Spracherkennungsprogramme müssen Sie mittlerweile kaum noch trainieren.

Die Maschine braucht also einen Respons, der ihr sagt: Hier liegst du falsch. Und dann merkt sich die Maschine das und erkennt es das nächste Mal. Das heißt, die Maschine entwickelt aus sich heraus keine Logik?

Nein, es ist alles programmiert. KI ist immer abhängig von anderen Schnittstellen zur Umwelt. So brauchen wir eine gute Sensorik, damit die KI ihr Umfeld ertasten kann, sonst kommt zum Beispiel ein Roboter nicht weiter. Man braucht verschiedene zusätzliche technische Hilfen und ein Verstehen des Kontextes. Deshalb redet man auch ab und zu mal mit den Philosophen oder Psychologen, weil wir nur so Stück für Stück das intelligente Verhalten repräsentieren können. Sie braucht die Psychologen, um zum Beispiel die Gesichtserkennung zu ermöglichen oder Emotionen deuten zu können, um zu erkennen, ob jemand traurig, glücklich, erstaunt oder ängstlich schaut. Hier braucht man ein Riesenrepertoire an Fallbeispielen, um zu wissen, was bestimmte Muskelbewegungen oder Mundwinkel, die nach unten oder oben gehen, bedeuten.

Die Maschine wird es wahrscheinlich immer besser können, aber wohl nicht hundertprozentig.

Die Maschine hat keine Intention und keine Intuition. Sie kann etwas logisch erschließen, aber Menschen haben ja ein vielfältiges Repertoire an Fähigkeiten, wenn sie auf die Welt kommen, selbst Hunde oder Katzen haben Instinkte, Lüste oder Ängste, was die Maschine nicht hat. Die Maschine ist quasi blank, wenn sie auf die Welt kommt. Sie muss viele Dinge lernen. Maschinelles Lernen ist allerdings nur ein ganz winziger Bereich der KI.  

Im Grunde soll alles abgebildet werden, was der Mensch macht oder was für ihn relevant ist.

Ja, so etwa. Ich kann beispielsweise lernen und lehren. Mit maschinellem Lehren meint man tutorielle Systeme, also das, was man unter E-Learning versteht. All das hat eine Wissensrepräsentation. Ich muss das Wissen immer abbilden, wir brauchen Repräsentationen, und zwar bei allem. Ich brauche immer irgendeinen Weg, um an die relevanten Daten zu kommen. Das nennt man Akquisition. Dazu muss ich jemanden befragen und sagen: Okay, wie machst du das, wie funktioniert das bei dir? Und ich brauche dann eine Abbildungssprache. Das heißt also: Unter der KI liegt immer eine solche Repräsentation, und wir müssen dieses Wissen irgendwie abbilden. Wenn Sie jetzt eine Aufgabe haben, zu der gar kein Wissen existiert, dann hilft KI auch nicht weiter. Es gibt auch sehr, sehr intelligente Programme, aber die haben mit dem Mechanismus KI nichts zu tun. KI hat keine Empathie. Das ist programmiert sozusagen. Außer natürlich in Science-Fiction-Filmen, da heißt es dann plötzlich: Der Roboter hat Empathie entwickelt. Oder Zorn. Aber das sind menschliche Emotionen. So etwas wird auf die KI projiziert, weil man vielleicht selbst vor der KI Furcht hat, aber in der Realität gibt es das einfach nicht.

Viele haben Angst, dass uns die KI eines Tages beherrschen könnte.

Zuerst muss es jemanden geben, der sich beherrschen lässt. Wenn ich alles, ohne nachzudenken, der Maschine überlasse, werde ich auch beherrscht, weil sich meine Fähigkeiten immer mehr reduzieren. Dazu brauchen die Maschinen nicht intelligent zu sein. Wenn wir befürchten, dass es ein Programm geben könnte, das ein direkter intelligenter Konkurrent zu uns als Spezies wäre, ist das nicht vorstellbar, jedenfalls nicht mit den Angeboten, die wir derzeit von der KI kennen.

In dem Film 2001: Odyssee im Weltraum von Stanley Kubrick übernimmt ein Computer namens HAL das Kommando über das Raumschiff und versucht, die ganze Crew umzubringen. Er entwickelt einen Willen.

Das sind aber Vorgänge, die es nur im Film gibt. Das ist nicht bloß Science-Fiction, es gibt sogar Systeme, mit denen man so argumentieren könnte, aber das ist keine Intelligenz, sondern das ist die Programmierung. Der Mechanismus dieses technischen Apparats hat keine andere Möglichkeit, als so zu reagieren. Er hat keine Wahl oder einen Willen. Das ist kein intelligentes Verhalten oder Selbstbewusstsein. Auch HAL ist programmiert.

In England gibt es Programme, die eine Rechtsberatung durchführen. Das geht wahrscheinlich bei einfachen Fällen wie zum Beispiel dem falschen Parken. Die Frage ist: Bis zu welchem Komplexitätsgrad ist das ausbaubar?

In England funktioniert die Rechtsprechung stärker über Fallbeispiele. Die Programme können Beispielentscheidungen mit dem aktuellen Fall vergleichen und so das Ergebnis bestimmen. In unserem Rechtssystem geht das nicht so einfach. Wir gehen von einem abstrakten Gesetz aus, das interpretiert und abgewogen werden muss. Das ist sehr viel schwieriger.

Wäre KI für die Überprüfung des Internets und beispielsweise für die Suche nach Hate Speech oder Fake News brauchbar? Könnte man sie einsetzen, um bei Streamingdiensten nach jugendbeeinträchtigenden oder jugendgefährdenden Inhalten zu suchen? Oder könnte sie sogar die Filmprüfung durch Institutionen wie die FSK ersetzen?

Man könnte da fallbasiert herangehen. Im Bereich des Jugendschutzes könnte man sich unterschiedliche Filme anschauen, sie klassifizieren und dem Programm sagen: Bitte, das ist dein Fall. Und jetzt versuch als KI, das mit den neuen zu untersuchenden Inhalten abzugleichen. Man braucht aber immer noch eine Kontrollinstanz, die dann letztlich entscheidet, ob die KI richtig oder falsch gelegen hat.Das ist bei allen KI-Systemen so, wenn es um Entscheidungen geht, die nicht eindeutig sind und abgewogen werden müssen. Das gilt auch für medizinische KI-Systeme oder andere Expertensysteme. Wenn das KI-System sagt: Die einzige Möglichkeit, den Menschen zu retten, ist, den Arm zu amputieren, würde da auf jeden Fall noch ein Experte draufschauen. Man würde sich allein auf den Vorschlag der KI nicht verlassen, sondern fragen, warum sie zu diesem oder jenem Ergebnis gekommen ist, und dann final entscheiden.

Bei allem Können der KI: Ist letztlich der Mensch einzigartig in der Fähigkeit, abzuwägen und Entscheidungen zu treffen?

Eine Einzigartigkeit würde ich dem Menschen jetzt nicht attestieren. Wir sind eine Spezies von ganz vielen auf dieser Welt. Wir können zwar Dinge, die künstliche Intelligenz nicht kann, aber das kann auch eine Ameise. Es gibt Entscheidungen, die im natürlichen Leben klar sind, die sich die KI aber mühsam errechnen muss. Wenn eine Ameise auf dem Mars immer wieder an den Stein stieße, würde sie irgendwann erkennen: Nein, das ist sinnlos, ich gehe mal nach rechts oder nach links. Mit KI kann man schon ziemlich viel: Man kann Menschen beim Lernen unterstützen, man kann Expertensysteme bauen, in denen man ganz viel Expertenwissen abbilden kann. Das sind aber letztendlich nur Programme, die man benutzen kann. Es gibt Programme, die helfen uns beim automatischen Fahren; Systeme, die erkennen, dass jemand vor dem Auto ist, und bremsen. Sie reagieren schneller und der Fahrer wird entlastet. Das kann Leben retten. Manche Programme helfen behinderten Menschen, mit künstlichen Gliedmaßen fast normal zu gehen.

Ray Kurzweil, amerikanischer Futurist und Leiter der technischen Entwicklung bei Google, hat schon 2004 die Singularität für 2050 prophezeit. Was meint er damit?

Singularität heißt, dass KI den Menschen quasi obsolet macht. Also, dass KI-Systeme erkennen: Ich bin KI und das ist der Mensch, und jetzt brauchen wir den Menschen nicht mehr. Das ist aber kein neues Phänomen. Der Begriff „Roboter“ geht zum Beispiel auf ein Theaterstück von 1926 zurück. Da wurde genau diese Idee angesprochen, dass die Roboter die Weltherrschaft übernehmen. Das sind Szenarien, die man aufmacht, weil das Entsetzen provozieren würde, so wie man zu Halloween Schauermärchen erzählt. Aber das hat mit Wissenschaft nichts zu tun. Also, im Moment behauptet niemand, dass wir in den nächsten 50 oder 100 Jahren ein solches System bauen könnten. Es wird vielleicht Systeme geben, die uns jegliche Arbeit oder Anstrengung abnehmen. Wenn wir dann nur noch Unterhaltung aus Fernsehen oder Streamingdiensten konsumieren und völlig blöd werden, dann hat uns die Technik jede Kreativität abgenommen. Aber das ist nicht KI. Das ist nur Technik.

Kurzweil geht noch ein Stück weiter und sieht in der Singularität die Aufhebung von Zeit und Raum, ähnlich wie bei einem schwarzen Loch …

Deshalb auch Singularität, das ist ja das schwarze Loch …

Das ist ja eigentlich ein physikalischer Begriff, der einfach sagt, dass der Wissenszuwachs und die Beschleunigung, in der wir in der Lage sind, Probleme zu lösen, eben nicht mehr linear anwachsen, sondern exponentiell. Dadurch geraten wir in einen Zustand, in dem die Geschwindigkeit so beschleunigt ist, dass sich die Zeit auflöst. Ist das Blödsinn?

Ja, das ist Blödsinn. Wir müssen uns jetzt wirklich mal vergegenwärtigen, wie lange es die Menschheit gibt, wie lange es die Welt gibt und wie lange wir schon Probleme lösen. Und diesen exponentiellen Wissenszuwachs, den gibt es schon ein paar 100 Jahre. Wir lernen immer dazu, und je mehr wir wissen und dieses Wissen zum Beispiel durch die Schrift und die Bücher speichern und jetzt durch das Internet unglaublich schnell weltweit verbreiten können, umso mehr beschleunigt sich die Entwicklung des Wissens. Aber warum jetzt ein Programm, das wir selbst programmiert haben, plötzlich um so viel besser sein könnte in seinem Wissen, erklärt sich mir nicht. Natürlich kann ein Computer sehr viel mehr Informationen zuverlässig und schnell speichern, aber wieso das so viel besser sein soll als unser Denkprozess, dass er also Aufgaben beherrscht, die wir nicht beherrschen, glaube ich nicht.

Man braucht also keine Angst zu haben, dass KI uns gefährlich wird?

Natürlich kann ich die Technik so programmieren, dass sie uns beherrschen will und auch dazu führt, dass wir beherrscht werden. Die Systeme machen das aber nicht mit Absicht und aus eigenem Antrieb. Sie haben keine eigene Motivation, die Menschen zu beherrschen, sondern es sind Programme, die eine bestimmte Funktionalität haben. Sie folgen der Ethik, die der Programmierer festgelegt hat. Vor ihm müssen wir vielleicht Angst haben.

Statistiken behaupten, dass KI etwa 50 % der Arbeitsplätze vernichten würde. Halten Sie so etwas für wahrscheinlich?

KI kann die Qualität von Arbeitsprozessen erhöhen. Sie kann auch Arbeitsposten oder Aufgaben reduzieren, sie kann also dazu führen, dass man weniger Arbeit braucht. Aber sie hat auch viele Arbeitsmittel geschaffen. Wir sind eine schrumpfende Gesellschaft, die Zuwanderung fängt das nur etwas auf. Zu sagen, die KI vernichtet alle Arbeitsplätze, ist ein bisschen blauäugig. Wir brauchen Mechanismen, die uns die Arbeitsplätze an veränderte Gegebenheiten anpassen, sonst können wir als Industriegesellschaft nicht mehr existieren. Wir haben sehr viele Probleme auf der Welt, für die man Technik und intelligente Systeme braucht. Früher hat man auch gesagt: Okay, der Computer bringt ganz viele Leute um den Lohn. Der Computer hat Arbeitsplätze vernichtet, ja. Er hat aber auch sehr viele Arbeitsplätze geschaffen. Und ich wage fast die Prognose, dass der Computer mehr Arbeitsplätze geschaffen als vernichtet hat. E‑Learning ist zum Beispiel eine neue Anwendung, die gerade für viele kleine Nischenfirmen in der nächsten Zeit viel Arbeit bringen wird. Dabei geht es nicht nur um reine Wissensvermittlung, sondern auch um das Einüben und die Lernzielkontrolle, wie wir das aus der Pädagogik kennen. Aber: Ich praktiziere das E‑Learning schon seit 20 Jahren, doch meine Studenten oder Schüler wollen neben der Maschine noch einen menschlichen Ansprechpartner haben. Die Maschine ersetzt keinen Professor. Wir müssen auch manchmal nachfragen: „Da habe ich jetzt etwas nicht verstanden.“ Darauf kann die Maschine nicht kreativ reagieren. KIwird den Menschen nicht ersetzen. Der Mensch kann sich aber ausbeuten lassen. Wenn ihn zum Beispiel wichtige Produktionsprozesse nicht mehr interessieren und er sie blind der Maschine überlässt, dann ist er abhängig. Wenn das Interesse und das Verständnis für die Welt und die Dinge verloren gehen, ist man abhängig: von der künstlichen Intelligenz, von der Technik oder von anderen Menschen.

Welche Rolle werden Cyborgs spielen, also das Einpflanzen technischer Unterstützung in den lebenden Organismus?

Das mit den Cyborgs ist eine schleichende Entwicklung. Also, es gibt ja durchaus Organe oder Gliedmaßen, die man ersetzen kann. Man wird bald Insulinpumpen haben, die intelligent sind. Man kann die Technik direkt in den Körper integrieren. Wir kennen schon künstliche Linsen und Cochlea-Implantate, durch die Menschen wieder hören können, oder den altbekannten Herzschrittmacher. Wir werden irgendwann künstliche Herzen haben. Viel komplizierter sind Leber oder Nieren. Wenn wir das mit den Cyborgs übertreiben, bleibt irgendwann nur noch das Gehirn übrig. Inzwischen weiß man aber, dass die Intelligenz nicht nur im Gehirn und im Rückgrat steckt. Ein Cyborg ist ja eine Verbindung zwischen einem natürlichen und einem künstlichen System. Und irgendwann wird man seine Identität verlieren und fragen: Bin ich das noch? Wenn Implantationen medizinisch angebracht sind, ist das sinnvoll. Wenn es medizinisch nicht angebracht ist, dann sollte man es lassen.

Mancher wünscht sich, einen Chip implantiert zu bekommen, auf den Sprachen aufgespielt sind und der sich mit seinem Gehirn verbindet. Dann kann man sich den Spanischunterricht sparen.

Das ist im Moment noch nicht drin, aber das wird später vielleicht mal funktionieren. Wir sehen ja eine sehr starke Entwicklung in Bezug auf Sprache überhaupt. Die Diktiersoftwares wie Dragon, Siri oder die von Google sind wirklich sehr gut. Man kann viele Übersetzungen heute mit Spracheingabe und auch Sprachausgabe schon hinkriegen. Es gibt zum Beispiel den Translator, in den man Deutsch hineinspricht und der fast zeitgleich das Gesagte in der gewünschten Sprache ausgibt. Das hilft uns, weltweit zu kommunizieren. Und wir müssen kommunizieren. Viele Probleme ergeben sich nur dadurch, dass wir nicht miteinander kommunizieren. Deshalb ist das für mich etwas Positives.

Dr. Karsten Hartmann ist Professor für Künstliche Intelligenz und multimediale Systeme an der Hochschule Merseburg.

Prof. Joachim von Gottberg ist Chefredakteur der tv diskurs.