Denk, Maschine!

Manuela Lenzen

Dr. Manuela Lenzen ist freie Wissenschaftsjournalistin und schreibt über Themen an den Grenzen von Naturwissenschaften und Philosophie.

Intelligente Maschinen sind ein alter Menschheitstraum. Maschinelle Lernverfahren haben sie uns in den letzten Jahren ein gutes Stück nähergebracht. Doch noch ist die menschliche Intelligenz unerreicht.

Printausgabe tv diskurs: 23. Jg., 4/2019 (Ausgabe 90), S. 18-21

Vollständiger Beitrag als:

1955 ging bei der Rockefeller Foundation ein ambitionierter Förderantrag ein: Zehn Forscher um den jungen Mathematiker John McCarthy planten, in nur zwei Monaten „signifikante Fortschritte“ auf einem Feld zu erzielen, das in diesem Antrag erst seinen Namen erhielt: künstliche Intelligenz (KI). Ihr Optimismus überzeugte, und die handverlesene Gruppe verbrachte den Sommer des Jahres 1956 am Dartmouth College in Hanover, New Hampshire, damit, „herauszufinden, wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu bilden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten waren, und sich selbst zu verbessern“. Bis heute gibt es keine verbindliche Definition von künstlicher Intelligenz, doch die in McCarthys Antrag genannten Fähigkeiten bilden den Kern dessen, was Maschinen leisten sollten, um diesen Titel zu verdienen.
 


Die Dartmouth-Konferenz gilt heute als der Startschuss der KI-Forschung, dabei waren die Forscher damals schon mittendrin, nur ein griffiger Name hatte dem Unternehmen noch gefehlt. Der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts hatten schon 1943 erste künstliche neuronale Netze entworfen, der Informatiker Allen Newell und der Sozialwissenschaftler Herbert Simon präsentierten auf der Tagung ihr Programm Logical Theorist, das logische Theoreme beweisen konnte. Noam Chomsky arbeitete an seiner generativen Grammatik, der zufolge unsere Fähigkeit, immer neue Sätze zu bilden, auf einem unbewusst bleibenden Regelsystem beruht. Wenn man dieses ausbuchstabierte, sollte man nicht auch Maschinen dazu bringen können, Sprache zu gebrauchen?

1959 präsentierten Herbert Simon, John Clifford Shaw und Allen Newell dann ihren „General Problem Solver 1“, der Schach und Türme von Hanoi spielen konnte. 1966 machte Joseph Weizenbaum mit ELIZA von sich reden, einem Dialogprogramm, das einen Psychologen mimte. Er selbst war vom Erfolg des recht einfach gestrickten, auf Signalwörter reagierenden Systems überrascht.
 

Rückschläge und neue Ansätze

Intelligente Maschinen schienen in dieser optimistischen Aufbruchsphase der neuen Disziplin zum Greifen nahe. Doch auch Rückschläge ließen nicht auf sich warten. Ein Übersetzungsprogramm für Englisch und Russisch, das die US-Armee sich im Kalten Krieg gewünscht hatte, ließ sich nicht realisieren, und auch autonome Panzer waren nicht so schnell zu entwickeln, wie die Forscher dies versprochen hatten. Ende der 1970er-Jahre und noch einmal zehn Jahre später kamen militärische und staatliche Geldgeber zu dem Schluss, die Forscher hätten den Mund zu voll genommen, und kürzten die Mittel massiv. Diese Phasen gingen als „KI-Winter“ in die Geschichte ein.

Im Rückblick sehen wir heute klarer, warum die frühen KI-Forscher ihr Projekt so sehr unterschätzten: „Die Forschung wird auf der Annahme basieren, dass jeder Aspekt des Lernens oder jeder andere Aspekt von Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine dazu gebracht werden kann, sie zu simulieren“, heißt es gleich im zweiten Satz des oben zitierten Förderantrags. Eine so genaue Beschreibung ist bis heute illusorisch. Nach über 60 Jahren KI-Forschung sehen wir heute vielmehr klarer, wie wenig die menschliche Intelligenz bislang verstanden ist.

Hatte die erste Generation von KI-Forschern auf „universellen Problemlöser“ gesetzt, entstanden in den 1970ern erste bescheidenere Expertensysteme: Dialogprogramme, die auf ein Gebiet spezialisiert waren, etwa auf die Diagnose von Infektionen oder die Analyse von Daten aus Massenspektrometern. Für diese Systeme befragte man Experten nach ihrem Vorgehen und versuchte, es in einem Programm nachzubilden.

Doch diese „symbolisch“ genannte Art der Programmierung deckt nur denjenigen Teil der menschlichen Kognition ab, den der Mensch sich bewusst machen, den er ausbuchstabieren kann. Alles, was sich mehr oder weniger unbewusst abspielt, geht dabei verloren. Wie etwa erkennt man ein vertrautes Gesicht in einer Menschenmenge? Und was genau unterscheidet einen Hund von einer Katze? Hier punkten die Verfahren des maschinellen Lernens, denen wir den aktuellen Boom der KI verdanken: Sie rütteln sich ihre Feinstruktur selbst zurecht, man muss ihnen die Welt nicht ausbuchstabieren.
 


Nach über 60 Jahren KI-Forschung sehen wir heute […] klarer, wie wenig die menschliche Intelligenz bislang verstanden ist.


 


Maschinelles Lernen und ein neuer Boom

Der Bereich „Maschinelles Lernen“ umfasst zahlreiche unterschiedliche Verfahren, am meisten macht derzeit das Deep Learning, das „tiefe Lernen“ auf der Basis künstlicher neuronaler Netze (KNN) von sich reden. Ein solches KNN ist im Groben den neuronalen Netzen des Gehirns nachempfunden. „Künstliche Neuronen“ sind in Schichten zu einem Netz angeordnet. Sie nehmen Aktivierungssignale auf und verrechnen sie zu einem Ausgabesignal. Dieser Prozess wird auf konventionellen Rechnern mit dafür optimierten Prozessoren ausgeführt. Ein KNN hat eine Eingabeschicht, die die Daten – etwa die Pixelwerte eines Bildes – aufnimmt; darauf folgen eine unterschiedliche Anzahl „versteckter“ Schichten („hidden layers“), in denen das Berechnen stattfindet, und eine Ausgabeschicht, die das Ergebnis präsentiert. Die Verbindungen zwischen den „Neuronen“ sind gewichtet, sie können die Signale also verstärken oder abschwächen. Ein KNN wird nicht programmiert, es wird trainiert: Es startet mit zufälligen Gewichtungen und produziert erst einmal ein zufälliges Ergebnis, wird dann aber in Tausenden von Trainingsläufen immer wieder korrigiert, bis es zuverlässig arbeitet. Vorwissen über mögliche Lösungen, wie der Mensch es angesammelt hat, brauchen diese Systeme nicht.

Auch das Rechnen mit künstlichen neuronalen Netzen hat frühe Vorläufer: Frank Rosenblatt präsentierte schon 1958 das Perzeptron, ein System, das mithilfe von Fotozellen und mit Kabelverbindungen simulierten Neuronen einfache Muster erkennen konnte. Für Rosenblatt schien damals klar, dass die Zukunft der Informationsverarbeitung in solchen statistischen statt in logischen Verfahren zu suchen sei. Doch das Perzeptron funktionierte oft nicht sehr gut. Als Marvin Minsky und Seymour Papert 1969 in Buchlänge die Grenzen dieses Verfahrens darlegten, wurde es um die KNN erst einmal wieder still. Dass dieses Verfahren jetzt einen solchen Boom erlebt, liegt daran, dass heute bessere Algorithmen zur Verfügung stehen, etwa Verfahren für mehrschichtige Netze entwickelt wurden, dass genug Daten vorhanden sind, um diese Systeme zu trainieren, und Rechner mit ausreichender Kapazität, um diese Prozesse zu realisieren. Zudem erweisen sie im Einsatz täglich ihren Nutzen.
 

Eine Technik, viele Anwendungen

Systeme, die mit maschinellem Lernen arbeiten, spielen inzwischen nicht nur Schachund Go, sie analysieren auch Röntgenaufnahmen oder Bilder von Hautveränderungen auf Krebs, übersetzen Texte und berechnen die Platzierung von Werbeeinblendungen im Internet. Einer der vielversprechendsten Anwendungsbereiche heißt „predictive maintenance“ (etwa: vorausschauende Wartung). Entsprechend trainierte Systeme erkennen, wenn sich z.B. das Betriebsgeräusch einer Maschine verändert. So können diese gewartet werden, bevor sie ausfallen und die Produktion lahmlegen.
 

Die Schwachstellen

Lernende Systeme finden in großen Datenmengen Strukturen, die wir ohne sie übersehen würden. Ihr Datenhunger ist allerdings auch eine Schwachstelle dieser Verfahren. Man kann sie eben nur dort einsetzen, wo genug aktuelle Daten im richtigen Format zur Verfügung stehen, um sie zu trainieren. Ein anderes Problem ist die Undurchsichtigkeit des Lernprozesses: Das System liefert Ergebnisse, aber keine Begründungen dafür. Dies ist problematisch, wenn Algorithmen etwa darüber entscheiden, ob jemand einen Kredit bekommt. Zudem benutzen diese Verfahren die Daten der Vergangenheit, um Modelle zu bilden, mit denen sie neue Daten klassifizieren – und neigen so dazu, bestehende Strukturen zu konservieren oder zu verstärken.
 


Die aktuellen KI-Systeme sind Spezialisten.


 

Ein neuer Winter?

Angesichts dieser Probleme mehren sich Stimmen, die prophezeien, auf den aktuellen Hype werde eine Phase der Enttäuschung, ein neuer „KI-Winter“ folgen. In der Tat sind Debatten um Superintelligenzen dazu angetan, unrealistische Erwartungen zu wecken. Doch „KI-Winter“ entstanden, weil den Forschern Fördergelder gekürzt wurden. Aktuell sehen wir das Gegenteil: Nationale KI-Förderstrategien schießen aus dem Boden, immer mehr Forschungszentren und Lehrstühle werden eingerichtet. Vor allem aber liefern die heutigen Verfahren des maschinellen Lernens schon einsatzreife Produkte für Industrie, Handel, Wissenschaft und Militär. All das spricht gegen einen neuen „KI-Wintereinbruch“.

Wohl aber sollten wir realistischer betrachten, was machbar ist: Die aktuellen KI-Systeme sind Spezialisten. In der komplexen Welt, in der wir uns bewegen, werden sie noch lange nicht ohne menschliches Wissen auskommen. Vielleicht liegt die Zukunft der KI-Systeme in hybriden Verfahren, die beide Ansätze, das symbolische Programmieren und das Lernen, zusammenbringen.
 

Dieser Text erschien am 30. Mai 2019 erstmalig auf https://www.dasgehirn.info/.