Roboter erlernen menschliche Wahrnehmung
Michael J. Black bringt Computern bei, Daten über Ihre Umwelt so schnell und zuverlässig zu analysieren wie das menschliche Gehirn.
Text: Tim Schröder
„Ich mag Tübingen wirklich gern“, sagt Michael J. Black. „Die Stadt, die Umgebung. Meine Frau und ich wandern gern. Die Schwäbische Alb ist fantastisch.“ Michael J. Black hat sich vorgenommen, für immer hier zu bleiben. Er ist jetzt Ende 40. „Da habe ich noch etwa 20 Jahre Zeit zum Forschen.“ Er weiß ziemlich genau, was er in dieser Zeit erreichen will. „Ich will einen Roboter dazu bringen, sich in der Welt so gut zurechtzufinden wie ein zweijähriges Kind.“ Das klingt erstmal nicht nach sonderlich viel, wäre aber eine Sensation, denn Zweijährige sind verdammt schlau.
Ein Neugeborenes kann kräftig zupacken. Greifreflex, Finger schnappen – mehr nicht. Ein Zweijähriges aber ist in Sachen Greifen bereits ein Virtuose und beherrscht Dutzende von Greifvarianten, sachtes Heben, Löffelchen halten. Ein Kleinkind bewegt Rundes, Eckiges und Spitzes sicher in seinen Händen, und es kann abstrahieren. Es erkennt Eckiges als Eckiges und Rundes als Rundes, ganz gleich ob ein Ding drei, vier oder fünf Ecken und Rundungen hat. Ganz gleich, ob es einen Gegenstand zum ersten Mal sieht.
Es ist diese Abstraktionsleistung die Computer-Hirnen heute noch fehlt. „Wir Menschen analysieren unsere Umwelt in Sekundenbruchteilen“, sagt Black. „Uns reicht der Glanz einer Oberfläche, Schattierungen, um zu erkennen, ob sie rutschig oder griffig ist.“ Ein Computer muss erst lange rechnen, ehe er den Input seiner Sensoren geordnet hat und weiß, was Sache ist. Das menschliche Hirn aber pickt sich aus dem Sturm der Sinnesreize ganz einfach einige wesentliche Merkmale heraus und schließt damit treffsicher, wie die Welt um uns tatsächlich beschaffen ist.
Genau das sollen Blacks Computer auch lernen. Sie sollen generalisieren, abstrahieren, aus wenig Information auf Eigenschaften schließen. Sicher, ein technisches System kann Tausende von Daten, Zahlen und Messwerten verarbeiten, die Atomstruktur einer Bodenfliese analysieren – und trotzdem würde ein Roboter vermutlich ausrutschen, wenn gerade frisch gewischt wurde. Blacks zentrale Frage ist, welche Umweltreize entscheidend sind. Wie schafft es das Hirn, aus wenig so viel zu machen – uns sicher durch unser Leben zu steuern? Und wie bringt man das am Ende Computern und Robotern bei.
Die Komplexität reduzieren
Black ist einer der drei quasi Gründungsdirektoren, mit denen sich das Max-Planck-Institut für Metallforschung auf dem Gebiet der intelligenten Systeme neu ausrichtet. Bis vor wenigen Wochen war er Professor am Lehrstuhl für Computer-Wissenschaften der Brown University in Providence im US-Bundesstaat Rhode Island. Er hat dort viel mit Neurochirurgen zusammengearbeitet. Denn ihm war klar, dass er beides verstehen müsse, den Computer und die Arbeitsweise des Gehirns. Er hat statistische Rechenverfahren entwickelt, so genannte Schätzer, die die Komplexität der Umweltreize - wie das Gehirn - auf ein erforderliches Maß reduzieren. Dank dieser Schätzer geht der Computer nicht in der Fülle von Daten unter.
Mit seinem Verfahren nähert er sich der Umwelt schrittweise an – approximative visuelle Physik nennt er das. Black befasst sich vor allem mit dem Sehen, besonders Bewegungen, denn die sind für das menschliche Hirn besonders starke Reize. Seine Rechenverfahren können aus dem Durcheinander von Lichtreflexen, Schatten und wandernden Bildpunkten einer Filmsequenz inzwischen ein sich bewegendes Objekt sicher extrahieren – aber eben nicht so flink und einfach wie das Gehirn. Das Hirn bleibt für ihn deshalb weiterhin der größte Lehrmeister.
Blacks Mediziner-Kollegen in den USA haben querschnittsgelähmten Patienten winzige Elektroden auf die für Bewegungen zuständigen Hirnareale, den motorischen Cortex, gepflanzt und die Erregung der Nervenzellen analysiert. Nervenzellen feuern elektrische Impulse ab, wenn sie erregt sind. Die Elektroden nehmen diese hauchfeinen Stromschläge wahr. Zunächst sieht ein solches elektrisches Erregungsbild aber nicht viel anders aus als die verrauschte Mattscheibe eines Fernsehers. Black gelang es, aus diesem Geflimmer klare Aktivitätsmuster herauszulesen und zu interpretieren. Dank der mathematischen Verfahren konnte der Computer schließlich die Gedanken der Patienten in reale Bewegungen umsetzen: Den Patienten gelang es, allein durch Gedankenkraft einen Cursor auf einem Computerbildschirm zu steuern. Brain-Computer-Interface nennen Experten derartige Verknüpfungen von Hirn und Rechner.
Black hat die Aktivitätsmuster aus dem motorischen Cortex ausgewertet und hofft, Rückschlüsse für die Programmierung von Computern ziehen zu können. Besonders interessant ist, dass der motorische Cortex eines Menschen auch dann aktiv ist, wenn er Bewegungen nur beobachtet, der Körper selbst also völlig regungslos ist. „Offensichtlich gibt es hier eine Beziehung zwischen dem eigenen Wissen über Bewegungen und dem Beobachten von Bewegungen“, sagt Black.
Derartige Erkenntnisse könnten für künftige Lernstrategien von Computern von großer Bedeutung sein. In Tübingen arbeitet Black daher nicht nur mit seinem direkten Kollegen Bernhard Schölkopf eng zusammen, sondern unter anderem auch mit den Experten aus dem benachbarten Max-Planck-Institut für biologische Kybernetik, etwa der Arbeitsgruppe von Heinrich H. Bülthoff, die sich mit Wahrnehmungsphänomenen und der Interaktion zwischen Mensch und Roboter befassen.
Ein wesentlicher Grund nach Tübingen zu kommen, war für ihn die Möglichkeit, an einer wirklich „großen Sache“ zu arbeiten. „Die Max-Planck-Gesellschaft erlaubt es einem Wissenschaftler über Jahre Grundlegendes zu erforschen, die wesentlichen Prinzipien zu verstehen. Das findet man in den USA kaum“, sagt Black. „Viele Projekte haben dort kurze Laufzeiten von etwa drei Jahren, und müssen dann klare Ergebnisse liefern. Man hangelt sich von einem kleinen Projekt und einer kleinen wissenschaftlichen Fragestellung zur nächsten – und hofft, am Ende alles zum großen Bild zusammen setzen zu können.“ In Tübingen hingegen kann er das Thema der künstlichen Wahrnehmung und des künstlichen Sehens von Grund auf angehen – für Jahre.
„Ich möchte die neuronale Kontrolle der Bewegungen begreifen, die Modelle verstehen, nach denen das Hirn arbeitet und diese grundlegenden Prinzipien auf die künstliche Welt übertragen.“ In 20 Jahren wird sich dann zeigen, ob seine Maschinen tatsächlich so schlau sind wie ein Kleinkind. Die Herausforderung ist gigantisch, denn noch scheitern Maschinen schon an scheinbaren Kleinigkeiten: Wer einem Roboter nacheinander Breilöffelchen, Gummiball und Schnuffeltuch in die Hand drückt, hat seine wahre Freude, denn der Diener aus Stahl wird eine ganze Weile unbeholfen herumprobieren, bis er begreift, was zu tun ist. Ein Zweijähriger ist in der Zeit längst zum nächsten Spielzeug weiter getippelt.