image

Alexander Armbruster (Hg.)

Künstliche Intelligenz
für jedermann

Wie wir von schlauen Computern profitieren
Das Einsteigerbuch

image

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

image

Copyright: FAZIT Communication GmbH

Frankfurter Allgemeine Buch, Frankenallee 71 – 81,

60327 Frankfurt am Main

Umschlag: Julia Desch, Frankfurt am Main

Titelgrafik: Jakarin2521_Thinkstock

Satz: Jan Walter Hofmann

1. Auflage, Frankfurt am Main 2018

ISBN 978-3-96251-000-8

eISBN 978-3-96251-047-3

Alle Rechte, auch die des auszugsweisen Nachdrucks, vorbehalten.

Vorwort

I. Damit Sie wissen, worum es geht

Ein Schnellkurs in Künstlicher Intelligenz

Eine angesagte Idee, die eigentlich ganz schön alt ist

Spektakuläre Computersiege über Menschen

Was ist eigentlich Intelligenz?

Stellt Künstliche Intelligenz die Wirtschaft auf den Kopf?

Braucht es Regeln für Künstliche Intelligenz?

Übernehmen Roboter die Welt? – Was Sie über die „Singularität“ wissen müssen

II. Unternehmen und ihre Ideen

Ein Gespräch mit dem Google-Chef

Interview mit Yann LeCun: Informatik sollte Pflichtfach sein – sagt Facebooks oberster KI-Forscher

Ein deutscher Hotspot für Künstliche Intelligenz

30 Billionen Rechenvorgänge in einer Sekunde

Ein unhöflicher Roboter ist manchmal besser

Autohersteller werden zu Softwareunternehmen

Das ganz alleine fahrende Auto

Siemens sucht den intelligenten Agenten

Alexa, mach meine Steuer!

Künstliche Intelligenz statt Wörterbuch

Programmieren für Fünfjährige – das geht

Der Chiphersteller der Künstlichen Intelligenz

Künstliche Intelligenz und Industrie 4.0 – wie hängt das eigentlich zusammen?

Die breite Masse wird den Anlageroboter mögen

III. Berühmte Forscher und ihre Vorhersagen

Interview mit IBMs KI-Urgestein John Watson: Computer können bald mehr als wir ihnen beibringen

Der KI-Superstar aus dem Alpenvorland

Ein Deutscher für Deep Learning

Der Nachwuchsstar, der längst zu den Großen zählt

Der „Elder Statesman“ des Deep Learning

Sie wollen der ganzen Welt Künstliche Intelligenz beibringen

Ein Deutscher, dessen Ideen Google und Apple verwenden, erforscht KI in Oberösterreich

Hier sind Deutschlands Spitzenlabore

Ringen um die klügsten Köpfe

IV. Visionen, Gefahren und der Blick in die entfernte Zukunft

Wenn Gedanken Roboter steuern

China – wenn Künstliche Intelligenz zur Religion wird

Wenn Maschinen Krieg führen

Undurchsichtige Intelligenzen

Wenn der Computer den Mörder errät

Künstliche Intelligenz schreibt „Game of Thrones“ weiter

Interview mit dem renommierten MIT-Physiker Max Tegmark: Die Menschheit kann erblühen wie nie zuvor

Ein kurzes Nachwort

Die Autoren

„Mehr als die Vergangenheit interessiert mich
die Zukunft, denn in ihr gedenke ich zu leben.“

Albert Einstein
Physiker

„Die Sache, über die ich mir Sorgen machen würde: Wir sollten nicht glauben, dass Künstliche Intelligenz nicht passieren und keinen Fortschritt machen wird. Das ist der falsche Ansatz. Und das hat übrigens auch nichts zu tun mit Google oder irgendeinem anderen einzelnen Unternehmen: Technologie entwickelt sich weiter. Wir müssen uns als Gesellschaft darauf vorbereiten: Wir müssen die Vorteile nutzbar machen, die Nachteile minimieren und uns dem ethisch verantwortungsbewusst nähern.“

Sundar Pichai
Vorstandsvorsitzender von Google

Vorwort

Der Science-Fiction-Autor William Gibson postulierte einmal: „Die Zukunft ist bereits hier – sie ist bloß nicht gleich verteilt.“ Das stimmt. Und das gilt für jede neue Technologie, niemals wälzt sie schon von Beginn an alles auf einmal um. Die Künstliche Intelligenz, in die so viele Unternehmen gerade viel Geld stecken, ist keine Ausnahme. Doch sie ist besonders faszinierend. Denn es geht um eine Herausforderung, die in dieser Breite neu ist für uns Menschen. Maschinen sind zunehmend nicht nur körperlich stärker, sondern übertrumpfen in jeweils speziellen Bereichen immer häufiger unsere Gehirne. Was bedeutet das? Welche Chancen stecken dahinter? Welche Gefahren schlummern in dieser Technologie? Wer sind die klugen Köpfe, wer verdient damit Geld?

Mit diesem Buch möchten wir Sie, liebe Leserinnen und Leser, einführen in eine der wichtigsten Entwicklungen unserer Zeit. Und in die zentralen Debatten, die sich daraus ergeben. Das ist ein Einführungsbuch, in dem wir bewusst auf die Details der dahinterstehenden Mathematik verzichten. Stattdessen wollen wir die grundlegenden Ideen darbieten, wichtige Akteure vorstellen – Unternehmen wie einzelne Forscher. Daher haben wir das Werk in vier Teile gegliedert:

Im ersten erfahren Sie, worum es geht, wenn heute von Künstlicher Intelligenz die Rede ist und welche wichtigen Diskussionen es in diesem Zusammenhang gibt. Im zweiten stellen wir ihnen führende Unternehmen vor auf dem Gebiet und konkrete Produkte und Ideen, die es schon gibt. In Teil drei machen wir Sie bekannt mit wichtigen Forschern, die Pionierarbeit geleistet haben und ohne die Künstliche Intelligenz, so wie wir sie kennen, nicht möglich geworden wäre. Schließlich folgen in Teil vier große Visionen und Gefahren und einige Szenarien, die Wirklichkeit werden können – das ist der spekulative Blick in die weiter entfernte Zukunft, den wir ebenfalls wagen wollen.

In diesem Buch geben wir der Künstlichen Intelligenz ihr aktuelles Gesicht. Und wir tun dies mit einem ganz besonderen Blick auf unser Land, die Bundesrepublik Deutschland. Unsere vielen Beispiele geben dabei stets den Stand wieder, wie er sich während des Druckes dieses Bandes darstellt. Und noch etwas möchten wir Ihnen gerne mitteilen, bevor Sie mit dem Lesen beginnen: Wir haben entschieden, dass Sie nicht nur das Buch insgesamt ohne Vorkenntnisse lesen können sollen, sondern auch jedes einzelne Kapitel. Deswegen erklären wir wichtige Sachverhalte nicht nur einmal zu Beginn des Buches, sondern wiederholen sie zumindest kurz an jenen späteren Stellen, an denen sie gerade wieder relevant sind.

Alle Beiträge basieren im Übrigen auf unserer Serie „Künstliche Intelligenz“, die seit Sommer 2017 in der Frankfurter Allgemeinen Zeitung erscheint. Der vielfältige Zuspruch und die klugen Fragen sowie Kommentare unserer Leser haben uns bestärkt, unsere Leidenschaft nun auch in Buchform anzugehen.

Ihr Alexander Armbruster und das Autorenteam

I. Damit Sie wissen, worum es geht

Ein Schnellkurs in Künstlicher Intelligenz

Computerprogramme, die genau verstehen, was wir sagen, alleine Autos fahren können, Spam-Mails herausfiltern, komplizierte Krankheiten diagnostizieren, Bücher empfehlen, nervige Alltagsroutinen übernehmen, die Umwelt retten, alle Menschen reicher machen: Die langfristigen Hoffnungen, die sich derzeit mit dem Begriff Künstliche Intelligenz (KI) verbinden, sind enorm. Bisweilen gleichen sie einer quasi-religiösen Erlösungserwartung. Andererseits wird auch oft unterschätzt, welches Potential diese Technik schon mit Blick auf die nähere Zukunft besitzt. „Jede geistige Aufgabe, für die ein Mensch weniger als eine Sekunde braucht, können wir mittels KI wahrscheinlich automatisieren, jetzt oder in der nahen Zukunft“, postuliert zum Beispiel Andrew Ng; er ist einer der großen Experten auf dem Gebiet. Es gebe „keine Institution auf dem Planeten“, die nicht durch Künstliche Intelligenz verbessert werden könne, sagt Amazon-Gründer Jeff Bezos – und meint damit: kein Unternehmen, keine Behörde, im Grunde auch keinen privaten Haushalt.

Auf der ganzen Welt tätige Unternehmen wie Googles Muttergesellschaft Alphabet, das soziale Netzwerk Facebook, der Softwarekonzern Microsoft, der Onlinehändler Amazon, der Handyhersteller Apple, die drei chinesischen Internetunternehmen Baidu, Tencent und Alibaba, der deutsche Allzweckzulieferer Bosch, die großen Autohersteller, Hedgefonds, Banken und Versicherer geben teils Milliarden aus und werben Mitarbeiter an, suchen die größten Talente direkt an den führenden Fakultäten. China, die zweitgrößte Wirtschaftsmacht der Welt, kündigte im vergangenen Jahr einen ambitionierten nationalen KI-Plan an, der auch die Verantwortlichen in Deutschland und den Vereinigten Staaten aufhorchen ließ.

Weiter gilt das Bonmot des verstorbenen Mathematikers John von Neumann: „Es scheint, dass wir die Grenzen dessen erreicht haben, was mit Computertechnologie möglich ist. Allerdings sollte man mit solchen Aussagen vorsichtig sein, denn fünf Jahre später klingen sie oft ziemlich dumm.“ Deswegen wollen wir in diesem Buch keine konkrete Prognose abgeben, wann das erste Auto ganz alleine fährt oder ein Computer über „gesunden Menschenverstand“ so verfügt, dass mit ihm eine Diskussion möglich ist, die sich nicht oder kaum von der mit einem anderen Menschen unterscheidet. Ziemlich sicher scheint indes, dass beides kommen wird.

Tatsächlich und konkret lohnt zunächst einmal ein Blick zurück: Woher kommt der Begriff Künstliche Intelligenz, wie wir ihn heute verstehen? Wer das wissen will, der kommt an John McCarthy nicht vorbei. Er war Mathematikprofessor in den Vereinigten Staaten, am Dartmouth College in Hanover im amerikanischen Bundesstaat New Hampshire. Und er war derjenige, der die Bezeichnung „Künstliche Intelligenz“ erstmals in den fünfziger Jahren des vergangenen Jahrhunderts verwendete. McCarthy schrieb einen Brief an die Rockefeller-Stiftung, weil er Geld wollte für eine Fachkonferenz. Er bekam die Mittel. Die Dartmouth-Konferenz im Sommer des Jahres 1956 gilt heute als die Geburtsstunde der Künstlichen Intelligenz als eigener Disziplin.

Die Teilnehmer in Dartmouth waren wesentlich Fachleute eines Teilgebietes der Mathematik, das sich einfach gesagt damit befasst, Aussagen und Begriffe als Symbole darzustellen und durch bestimmte Transformationen Schlussfolgerungen daraus zu ziehen. Fortschritte in der Computertechnologie eröffneten auf diesem Feld ganz neue Möglichkeiten. Den Weg dafür hatte wesentlich Alan Turing bereitet, der für die britische Regierung Funksprüche der deutschen Wehrmacht entschlüsselte mit dem ersten elektromagnetischen Computer der Welt. Turing schrieb in seinem in der Rückschau unglaublich weitsichtigen Artikel „Computing Machinery and Intelligence“ im Jahr 1950 schon, worum sich der Fortschritt in der Computertechnologie drehen werde: Um das Verständnis natürlicher Sprache, Übersetzungsleistungen, Entscheidungsfindung und eben die mathematische Beweisführung. Seine Prognose bewahrheitete sich – wenn auch einige Jahrzehnte später erst.

An der großen Weltöffentlichkeit ging das damalige Treffen in Dartmouth vorbei. Die Teilnehmer hatten sich zwar viel vorgenommen. Allerdings war die Computertechnologie noch weit entfernt davon, ein zumal in die Konsumgewohnheiten der Menschen integriertes Massenphänomen zu sein – es gab kein Internet, mit dem jeder Mensch verbunden war, kein Smartphone, das jeder ständig dabei hatte, kein Big Data. Und auch keine schlagzeilenträchtigen Warnungen wie sie etwa der verstorbene britische Physiker Stephen Hawking oder der israelische Historiker Yuval Noah Harari aussprachen, die sich und uns fragen, ob gar die Zukunft der Menschheit in Frage steht infolge leistungsfähigerer und intelligenterer Computer – wir werden diese Frage später ausführlicher diskutieren.

Tatsächlich war McCarthys Wortkreation „Künstliche Intelligenz“ auch ein äußerst gelungener Marketing-Coup. „Wenn McCarthy einen eher langweiligen Begriff verwendet hätte, der nicht eine Herausforderung der menschlichen Dominanz und Erkenntnisfähigkeit suggerieren würde, (…) würde Fortschritt auf diesem Gebiet wohl eher als das erscheinen, was es ist – das andauernde Fortschreiten der Automatisierung“, schreibt der amerikanische Computerfachmann und Unternehmer Jerry Kaplan.

Das Interesse an dieser Forschung wuchs infolge der Dartmouth-Konferenz schnell. In den sechziger Jahren trat das amerikanischen Verteidigungsministerium als potenter Geldgeber auf den Plan und finanzierte drei Forschungslabore für Künstliche Intelligenz, eines am MIT in Boston, ein anderes an der Stanford-Universität und ein drittes an der Carnegie-Mellon-Universität in Pittsburgh – alle drei zählen auch gegenwärtig zu den führenden Fachbereichen der Welt. Um etwa den Computer Deep Blue zu kreieren, der im Jahr 1997 den damaligen Schachweltmeister Garri Kasparow bezwang, heuerte IBM drei Forscher der Carnegie-Mellon-Universität an. Das spielerische Kräftemessen zwischen Mensch und Maschine schaffte es naturgemäß immer wieder eher in eine breitere Öffentlichkeit als die wissenschaftlichen Durchbrüche in der Informatik. Publikumswirksam besiegte der IBM-Supercomputer Watson Menschen im Quizformat „Jeopardy“ oder das Computerprogramm AlphaGo der Google-Tochtergesellschaft Deepmind Weltklasseleute im Brettspiel Go oder die Software „Libratus“ vier der besten Pokerspieler des Planeten (auch dazu später mehr).

Nach diesen Wettstreits hat es immer auch Diskussionen dieser Art gegeben: Handelte es sich hierbei wirklich um maschinelle Intelligenz, oder ging es letztlich „nur“ um Rechnen? Chris Bishop, ein leitender KI-Forscher in Diensten des Softwareunternehmens Microsoft, brachte das während eines launigen Vortrages einmal so auf den Punkt: „Jedes Mal, wenn ein Computer eine Aufgabe bewältigen konnte auf einem Level oberhalb dessen, was Menschen können, sagten Leute, okay, letztlich war das aber nicht intelligent, das war nicht wirklich Künstliche Intelligenz. Das brachte manchen Zyniker zu einer neuen Definition von KI, die lautet: Künstliche Intelligenz ist schlicht und einfach stets das, was Computer jetzt noch nicht tun können.“

Andererseits versperrt die Liste der jüngsten Erfolge schlauer Computerprogramme schnell auch einmal den Blick darauf, dass das Voranschreiten der Künstlichen Intelligenz über die vergangenen Jahrzehnte keine klare und stets einseitige Angelegenheit war. Es gab schon mehrere Hochphasen, die von ernüchternden Episoden abgelöst wurden, die Szene nennt sie „AI Winter“. Da erlebten gelegentlich überoptimistische Ankündigungen von Forschern auch mal ein klägliches Rendezvous mit der Realität.

Für die aktuell laufende Hoffnungswelle sind wesentlich drei Dinge verantwortlich: Immenser Fortschritt in der Rechenleistung, gewaltige verfügbare Datenmengen – und eine kleine Gruppe von Experten. Einer von ihnen heißt Andrew Ng. Er war Informatikprofessor an der Stanford-Universität und in den Jahren 2011 und 2012 die treibende Kraft hinter einem Projekt der damals neu geschaffenen KI-Unternehmung Google Brain. Ng und seine Kollegen schalteten 16.000 Prozessoren zusammen und ließen dann ein Computerprogramm zehn Millionen Youtube-Videos mehrere Tage auswerten. Das brisante Ergebnis: Der Computer hat selbst Unterscheidungen gelernt. „Wir haben ihm während des Trainings nie gesagt ‚Das hier ist eine Katze‘“, sagte Jeff Dean danach, der neben Ng federführend an dem Versuch beteiligt war. „Er erfand im Grunde das Konzept einer Katze.“

Dieses Experiment veranschaulicht, worauf sich die neue Hoffnung in der Künstlichen Intelligenz gründet – auf Computern, die selbstständig lernen, anstatt Wissen ganz konkret einprogrammiert zu bekommen. Die Software-Struktur orientiert sich dabei an jener Funktionsweise, die wir dem menschlichen Gehirn unterstellen, deswegen lautet ein wichtiges Schlagwort „künstliche neuronale Netze“ und darum geht es auch, wenn von „Deep Learning“ die Rede ist. Um ein Missverständnis zu vermeiden: Viele KI-Forscher streben nicht in erster Linie danach, ein menschliches Gehirn genau nachzubilden. Sie wollen Computerprogramme erfinden, die in ganz konkreten Aufgabenstellungen kompetent sind – kompetenter als Menschen.

Was mit Hilfe dieser gerade angesagten KI-Methoden möglich ist, erstaunt: Die Fehlerquoten in der Bilderkennung oder im Sprachverständnis sind deutlich gesunken und teils besser als die von Menschen. Dass das Potential als riesig eingeschätzt wird, dafür spricht etwa das Verhalten vieler namhafter Unternehmen, die Mittel in neue Technik stecken, händeringend Toptalente in diesem Bereich suchen und die eigene Belegschaft weiterbilden. Google zum Beispiel bietet intern Kurse in neuen KI-Methoden für Tausende Mitarbeiter an, wie Peter Norvig einmal öffentlich erläuterte, einer der leitenden Forscher des Tech-Konzerns. Und das große Potential, das dieser Technik zugedacht wird, zeigt sich auch am Interesse an langjährigen Spitzenforschern gerade dieser Fachrichtung innerhalb der Künstlichen Intelligenz: Der Universitätsprofessor Geoffrey Hinton etwa forscht für Google und hat herbeigeführt, dass ein ganzes Team des Unternehmens mittlerweile in Kanada eingerichtet ist, wo er seinen Lehrstuhl hat. Yann LeCun, der einmal wissenschaftlicher Mitarbeiter Hintons war, ist seit vier Jahren KI-Forschungschef von Facebook. Seine Gruppe arbeitet in New York, wo wiederum LeCun auch an der Universität unterrichtet. Und den in Montreal lehrenden KI-Experten Yoshua Bengio hat mittlerweile Microsoft als Berater angeheuert. Die beiden wichtigsten deutschen Informatiker, die zum grundlegenden Fortschritt auf diesem Feld beigetragen haben, heißen Jürgen Schmidhuber und Sepp Hochreiter. Ihre bahnbrechende Idee, die sich hinter dem Kürzel LSTM verbirgt, etablierten sie bereits in den neunziger Jahren – mittlerweile steckt sie in vielen Anwendungen: Google beispielsweise hat seinen Übersetzungsdienst damit runderneuert.

Die Anwendungsfelder für diese KI-Methoden sind zahlreich, die Unternehmen und Universitäten probieren vieles aus. Es geht weiterhin grundsätzlich um Sprachverständnis (Lesen und Hören) und Bilderkennung, die Autohersteller arbeiten an alleine fahrenden Fahrzeugen, der IBM-Computer Watson hilft dabei, Krebs zu therapieren. Um welche Möglichkeiten es geht, hat ein Test gezeigt, den IBM gemeinsam mit dem New York Genome Center durchführte: Um das Erbgut eines 76 Jahre alten Patienten mit lebensgefährlichem Gehirntumor zu analysieren und eine Therapie vorzuschlagen, brauchte Watson bloß zehn Minuten.

Facebook wiederum arbeitet an Programmen, die einmal über das verfügen sollen, was gemeinhin als „gesunder Menschenverstand“ gilt. Das ist ganz und gar keine Kleinigkeit. Marvin Minsky, ein vor zwei Jahren verstorbener KI-Vordenker, stellte einmal fest: „Der gesunde Menschenverstand ist keine einfache Sache. Er ist eine gewaltige Gesellschaft schwer verdienter praktischer Ideen – eine Vielfalt im Leben gelernter Regeln und Ausnahmen, Neigungen und Tendenzen, Beurteilungs- und Kontrollmechanismen.“

Mit der neu aufgekommenen Hoffnung in den Fortschritt Künstlicher Intelligenz ist aber offenkundig auch eine alte Angst wieder auf die Welt gekommen. Es geht um eine nicht immer konkret fassbare Furcht davor, abgehängt oder überflügelt zu werden. Sie manifestiert sich zum Beispiel in einigen Buchtiteln aus den vergangenen Jahren. „Our Final Invention – Artificial Intelligence and the End of the Human Era”, “Smarter than Us: The Rise of Machine Intelligence” oder “Superintelligence” lauten sie. Und sie kreist um die Furcht, was denn daraus folgen würde, wenn es eines Tages ein echtes künstliches Superhirn gäbe, einen Computer, der dem menschlichen Gehirn in jeder Hinsicht überlegen wäre. Während die Erfindung eines solchen Rechners bislang nicht bekannt ist, verläuft diese Debatte teils durchaus apokalyptisch. Eine besonders niederschmetternde Vorhersage stammte von Stephen Hawking: „Die Computer werden irgendwann in den kommenden hundert Jahren mit ihrer Künstlichen Intelligenz den Menschen übertreffen“, sagte er einmal und fügte hinzu: „Das wird das größte Ereignis in der Geschichte der Menschheit werden – und möglicherweise auch das letzte.“

Diese KI-Diskussion eignet sich momentan einerseits vornehmlich, um gruselige Filme oder Romane auszudenken. Der Informatiker William Press sagte dazu während eines Symposiums an der renommierten amerikanischen Wissenschaftsakademie einmal: „Wir hätten heute auch eine Diskussion darüber veranstalten können, ob Roboter die Welt übernehmen, und Sie würden uns mit ungefähr demselben Wissen wieder verlassen, mit dem Sie zu uns gekommen sind. Dafür aber womöglich umso erschrockener.“ Wir standen für dieses Buch vor einer ähnlichen Wahl – und haben uns ebenso entschieden. Vorenthalten wollen wir diese Diskussion aber natürlich auch nicht, sie wird im Verlauf des Buches verschiedentlich angeschnitten, etwa in einem Interview mit dem Physiker Max Tegmark, der sich darüber Gedanken gemacht hat in einer sehr konstruktiven Weise.

Vielleicht ist diese Debatte aber auch Ausfluss irgendeiner Irritation, die der Mensch derzeit mit Blick auf sich selbst verspürt. In diese Richtung denkt der katholische Theologe Linus Hauser, der sich viel mit religiösen Elementen in der Science-Fiction beschäftigt hat. „Wir sehen uns beispielsweise mit der Frage konfrontiert, ob es – etwa durch die Entwicklung von Quantencomputern – bald möglich sein wird, dass unsere Geschöpfe uns überlegen sein werden“, schrieb er einmal in eine reflektierten Analyse über den Erfolg und die Wirkmächtigkeit der Weltraumsaga Star Wars, und fährt fort: „Je weniger wir selbstbewusst sagen können: ‚Vernunft wird bald überall sein!‘, und uns als autonomes ‚Ich‘ auszusprechen vermögen, desto mehr werden wir in unserer Wahrnehmung zum anonymen Existenzkörnchen.“ Es sei einmal dahingestellt, ob sich ein Mensch wirklich minderwertig fühlen muss, wenn ein Computer schneller rechnen, besser einschätzen oder mehr Wissen im „Kopf“ behalten kann – schließlich haben die Menschen auch gut verkraftet, dass Autos schneller fahren können als der schnellste Mensch rennen kann oder Baukräne schwerere Lasten heben können. Das hat (hoffentlich) noch niemanden eifersüchtig gemacht.

Wichtiger scheint demgegenüber jene Diskussion über Künstliche Intelligenz zu sein, die an die absehbaren konkreten neuen Möglichkeiten dieser Technologie anknüpft. Da geht es etwa darum, welche Arbeitsplätze und Berufsbilder wegfallen und welche neu entstehen. Oder wer beispielsweise mit Blick auf selbstfahrende Autos für Schäden haftet. Viele solche Fragen müssen beantwortet werden, andere werden sich erst stellen. Wolfgang Wahlster, der Präsident des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), rät übrigens auch in diesen Fragen von vorauseilender Panik ab. „Mit Künstlicher Intelligenz wird menschliche Arbeit in Zukunft stark unterstützt, aber nicht völlig ersetzt“, sagt er. „Dies gilt sowohl für körperliche Arbeit zusammen mit kollaborativen Robotern als auch vermehrt für geistige Arbeit zusammen mit selbstlernenden Softbots. Neue Berufsbilder werden entstehen und alte Berufsbilder werden verschwinden wie bei jeder technischen Revolution.“ Wie das geschieht und wer das macht, auch davon wird noch die Rede sein, mit einem besonderen Blick natürlich auch auf Deutschland.

Eine angesagte Idee, die eigentlich ganz schön alt ist

Angesichts der allgemeinen Begeisterung über Künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen, entsteht schnell der Eindruck: Hier ist etwas vollkommen Neues im Gange, eine ganz neue Erfindung. Er trügt. Tatsächlich sind Ideen, die etwa hinter dem stehen, was wir nun künstliche neuronale Netze nennen, teils Jahrzehnte alt. Das gilt auch für die grundlegende Ambition, Computer zu kreieren, die sich an unserer Vermutung über die Funktionsweise des menschlichen Gehirns orientieren. Der Neurowissenschaftler Warren McCulloch und der Logiker Walter Pitts veröffentlichten zum Beispiel schon im Jahr 1943 einen Fachaufsatz, in dem sie die Arbeitsweise einer menschlichen Gehirnzelle mathematisch darstellten; sie präsentierten ein Modell eines künstlichen Neurons. In einem Artikel vier Jahre später diskutierten sie dann über neuronale Netze ebenfalls auf mathematischer Basis.

Damit war sozusagen eine Brücke zur Computerwissenschaft gebaut. „Grob zusammengefasst erkannten sie, dass trotz des Faktes, dass Gehirne weiche, nasse, glitschige Massen sind, die Nachrichtenübermittlung digital ist“, bringt das der KI-Fachmann Jerry Kaplan in seinem Buch über Künstliche Intelligenz auf den Punkt. Die beiden in Chicago forschenden Fachleute McCulloch und Pitts hatten selbst vornehmlich wohl anderes im Sinn als die Informatik zu bereichern. Sie erhofften sich von der mathematischen Beschreibung des Gehirns vor allem auch neue Möglichkeiten, psychische Erkrankungen verstehen und behandeln zu können; McCulloch war Arzt.

In der zweiten Hälfte der fünfziger Jahre trat dann vor allem ein Forscher in diesem Bereich auf den Plan: Frank Rosenblatt. Der Psychologe und Informatiker an der Cornell Universität entwickelte ein eigenes Modell eines künstlichen Neurons und nannte es Perceptron. Forschungsmittel dafür stellte ihm wesentlich die amerikanische Marine zur Verfügung. Er selbst kam in der Öffentlichkeit groß heraus mit seiner Kreation. Die „New York Times“ veröffentlichte am 8. Juli 1958 einen Artikel, der folgende Überschrift trug: „Neues Navy-Gerät lernt durch Handeln: Psychologe präsentiert einen Computer-Embryo, der lesen können und klüger werden soll.“ In dem Artikel wird dann etwa die Erwartung der Marine dargestellt, dass dieser Computer innerhalb eines Jahres „laufen, sehen, schreiben, sich selbst reproduzieren“ könne und „sich seiner eigenen Existenz bewusst“ sein werde – zu Kosten von ungefähr 100.000 Dollar. Später dann würde ebenjener Computer auch in der Lage sein, konkrete Menschen zu erkennen und Sprache zu übersetzen, mündliche wie schriftliche. Eine äußerst kühne und beachtliche Prognose. Und eine, die durchaus in die damalige Zeit und zu den Gedanken teils auch der führenden Fachleute auf dem Gebiet passte. In ihren Förderantrag für die schon eingangs erwähnte Dartmouth-Konferenz schrieben der uns nun schon bekannte John McCarthy und seine Kollegen Marvin Minsky, Nathaniel Rochester und Claude Shannon selbstbewusst-zuversichtlich: „Es soll ein Versuch unternommen werden, herauszufinden, wie man Maschinen dazu bringen kann, Sprache zu benutzen, Abstraktionen und Konzepte zu entwickeln, um bestimmte Probleme zu lösen, wie sie derzeit nur dem Menschen vorbehalten sind, und sich selbst weiter zu verbessern. Wir glauben, dass (…) bedeutsame Fortschritte erzielt werden können, wenn eine sorgfältig zusammengestellte Gruppe von Wissenschaftlern einen Sommer lang gemeinsam daran arbeitet.“ Auch diese konkrete Vorhersage erwies sich im Nachhinein als absurd. Allerdings ist von heute aus betrachtet gleichwohl beachtlich, dass durchaus Vieles mittlerweile eingetreten ist, wenn auch einige Jahrzehnte später.

Das Interesse damals war jedenfalls geweckt und groß, es fanden sich Geldgeber für verschiedenste Projekte. Gut zehn Jahre dauerte das an. Dann keimten – aufgrund von weniger realem Fortschritt als erhofft – Zweifel an der Idee, Computer lernen zu lassen in einer Art und Weise, die dem Gehirn nachempfunden ist. Zwei andere Wissenschaftler, Marvin Minsky und Seymour Papert, veröffentlichten ein Buch mit dem Titel „Perceptrons“ und zeigten darin wenigstens an bestimmten Modellen künstlicher Neuronen klare Begrenzungen auf. Frank Rosenblatt, mit dem sich Minsky eine besondere Kontroverse lieferte, konnte darauf übrigens nicht mehr mit ebensolcher Ausführlichkeit reagieren, er starb während eines Bootunglücks an seinem 43. Geburtstag.

Nichtsdestotrotz hielten Forscher in verschiedenen Teilen der Welt an der Idee fest, Computerprogramme zu erdenken, die sich an der vermuteten Funktionsweise des menschlichen Gehirns orientieren. Der ukrainische Mathematiker Alexey Grigorevich Ivakhnenko zum Bespiel ist ein regelrechter Pionier gewesen. Der deutsche Informatiker Jürgen Schmidhuber zeichnet ihn sogar als Begründer des „Deep Learning“ aus, Ivakhnenko blieb dieser Richtung treu und leistete wertvolle Grundlagenarbeit.

An der Universität im schottischen Edinburgh begann der Psychologe Geoffrey Hinton seine Promotion in Künstlicher Intelligenz – und setzte dabei zielstrebig auf künstliche neuronale Netze. Er hat hernach jahrzehntelang das Thema aus dieser Perspektive erforscht und immer wieder sowohl wertvolle Impulse geliefert als auch, und das wird ihm gerade in der Fachgemeinde angerechnet, stetig Geldgeber gefunden für Grundlagenforschung auf diesem Gebiet. Übrigens ist auch seine Motivation nicht in erster Linie gewesen, die Computerwissenschaft maßgeblich voranzubringen, sondern – den beiden Forschern McCulloch und Pitts durchaus ähnlich – unser biologisches Gehirn besser zu verstehen, wie er anlässlich seines 70. Geburtstags im vergangenen Dezember bekannte: „Ich wollte verstehen, wie das Gehirn arbeitet, und ich dachte, der beste vorwärts weisende Weg wäre es, Computer zu verwenden, um verschiedene Theorien zu testen und herauszufinden, welche Theorien wirklich funktionieren.“