Soll noch intelligenter werden: Facebook.
Mit einem Forschungslabor für künstliche Intelligenz will Facebook die Daten seiner 700 Millionen Nutzer nicht mehr nur auf werberelevante Schlagworte abklopfen, sondern wirklich verstehen lernen. Mark Zuckerberg hat dafür den New Yorker KI-Professor Yann Le Cun eingestellt, einen Pionier des Deep Learning. Diese Methode orientiert sich an der Funktionsweise des Gehirns. Microsoft, Google und der chinesische Suchriese Baidu haben ähnliche Labors eingerichtet. Jürgen Schmidhuber forscht seit mehr als 20 Jahren an Deep- Learning-Methoden und hat schon Mitarbeiter an Apple verloren.
SZ: Müssen wir damit rechnen, dass Facebook demnächst als Wesen mit Selbstbewusstsein aufwacht?
Jürgen Schmidhuber: Das ist unwahrscheinlich. Die Methoden, die meine Kollegen bei Facebook verwenden, gleichen denen, die wir und andere im Lauf der Jahrzehnte entwickelt haben. Alle kochen mit Wasser. Da entsteht nicht urplötzlich eine Superintelligenz wie in den alten Science-Fiction-Romanen der Achtzigerjahre.
Facebook wertet schon lange riesige Datenmengen aus, um Werbung zu personalisieren. Was würde sich mit Deep Learning ändern?
Deep-Learning-Methoden wurden in den letzten 40 Jahren entwickelt. Es handelt sich um besonders „tiefe“ künstliche neuronale Netzwerke. Das sind Programme, die dem Vorbild der Neuronen im menschlichen Gehirn nacheifern und zur Bildklassifikation oder Spracherkennung benutzt werden. In so ein neuronales Netz werden rohe Daten eingespeist – bei Facebook könnten das Daten sein, die beschreiben, wer mit wem verbunden ist, wer wen und welche Webseiten unter welchen Umständen „liked“. Die Aufgabe des Netzes besteht dann darin, Vorhersagen zu machen, welche Werbung bei wem gut ankommt.
Inwiefern ist Deep Learning im menschlichen Sinne intelligent?
So ein neuronales Netz ist zunächst einmal völlig unstrukturiert, aber mit Lernalgorithmen kann man es zwingen, gewünschte Antworten zu produzieren. Um zum Beispiel einen Roboter zu trainieren, zeigt ihm ein Mensch, wie seine Bewegungen aussehen sollen. Um eine Handschrift zu erkennen, zeige ich dem Netz Beispiele geschriebener Zeichen, die ein Lehrer korrekt markiert hat. Das Netzwerk lernt, die richtig zu klassifizieren. Die zentrale Frage ist dann: Funktioniert das Netz auch bei einem Testsatz, der aus zuvor ungesehenen Beispielen zusammengesetzt ist? Wenn man es richtig macht, schon.
Die Programme lernen also selbständig, wie sie die Daten zuordnen sollen?
Genau. Neuronale Netzwerke können auch Muster behandeln, die sie im Training nie kennengelernt haben. Wie Kinder Dinge erkennen, die sie nie gesehen haben. Irgendwann können sie sogar völlig neue Probleme lösen. Auf der untersten Neuronenschicht eines Netzwerks kommt die Eingabe an, etwa die rohen Pixel eines Bildes. In der nächsthöheren Schicht entstehen Filter, die abstraktere Konzepte wie Kanten und Ecken bemerken. Diese Konzepte sind nicht voreingestellt – selbst Babys lernen das erst mit der Zeit. In der nächsten Neuronenschicht wird es schon schwieriger, zu verstehen, was vorgeht. Je tiefer man reinguckt, desto abstrakter sind die Dinge, die unsere künstlichen Neuronen zu repräsentieren lernen. Auch gewisse echte Neuronen tief im Hirn reagieren ja nur, wenn sich eine bestimmte Person im Blickfeld befindet. Egal, welche Kleidung diese Person trägt, oder wie sie beleuchtet wird. Das kommt Normalbürgern vielleicht kaum bemerkenswert vor, aber Informatiker fanden es viele Jahre lang schwierig, Ähnliches mit Rechnern zu erreichen.
In der Forschung hat es immer wieder große Hoffnungen, aber auch Enttäuschungen gegeben. Weshalb jetzt diese neue Renaissance?
Das ist auch vor dem Hintergrund zu sehen, dass in jeder Dekade die Rechenzeit pro Euro zunimmt – und zwar um den Faktor 100 bis 1000. Es ist nicht abzusehen, wann das aufhören wird. Wir sind noch weit entfernt von den physikalischen Grenzen. Heute können wir verbesserte Algorithmen aus den Neunzigerjahren auf recht komplexe Probleme anwenden, die damals nicht infrage kamen.
In welchen Bereichen wird Deep Learning sonst noch verwendet?
Unsere Methoden funktionieren bereits gut, wenn es darum geht, ähnliche Bilder aus einer Datenbank herauszufiltern, eine chinesische Speisekarte mittels Handykamera zu übersetzen, oder ein fahrerloses Auto Verkehrszeichen erkennen zu lassen. Der wichtigste Anwendungsbereich ist die medizinische Diagnostik. Mein Team arbeitet erfolgreich an Krebsfrüherkennung. Das könnte in Zukunft helfen, die Gesundheitsvorsorge zahlloser Menschen ohne Zugang zu Ärzten zu verbessern.
Facebook-Nutzer machen sich Sorgen, dass Facebook verstehen lernen könnte, was die Nutzer schreiben und nicht nur, wie bisher, auf bestimmte Schlagworte anspringt.
Viele Forschungslabore und auch Geheimdienste und Finanzdienstleister auf der ganzen Welt arbeiten seit Jahrzehnten an genau diesem Problem: Lies einen Text und schreibe automatisch eine kurze Zusammenfassung. In sozialen Netzwerken ist das interessant, weil man durch die Auswertung einer Gruppendiskussion herausfinden kann, was die Beteiligten gemeinsam haben und welche Produkte man ihnen verkaufen könnte.
Kann Facebook demnächst meine Witze verstehen?
In der nahen Zukunft eher nicht. Zumindest nicht alle.
Warum nicht?
Das Verständnis vieler Witze erfordert Weltwissen und Jahrzehnte an Lebenserfahrung. Jede Sekunde eines Menschenlebens liefert Millionen neuer Sensordaten, die sich erheblich von den Daten Facebooks unterscheiden. Facebook kennt zwar viele Bilder, weil Nutzer sie hochladen. Aber es weiß kaum etwas darüber, was warum auf diesen Bildern passiert. Wir haben zwar schon Roboter, die das im Prinzip lernen können, die mit der Welt interagieren und so mit der Zeit herausfinden, wie sie funktioniert. Aber das ist noch im Forschungsstadium, während Bildklassifikation oder Gesichtserkennung schon so gut beherrscht werden, dass sie kommerziell höchst interessant sind.
An intelligenten Maschinen, wie man sie aus Science-Fiction-Filmen kennt, wird also gearbeitet?
Ja, klar. Mein Labor ist nicht nur für seine Deep-Learning-Methoden bekannt, bei denen es um Wahrnehmung geht. Wir wollen auch weit allgemeinere universelle Problemlöser bauen. Roboter, die aktiv Einfluss nehmen auf die Daten, die sie bekommen. Im Prinzip wissen wir sogar schon, wie wir kreative Maschinen bauen können, die nicht immer nur das tun, was ihnen die Lehrer sagen. Die stattdessen ihre eigenen Probleme wählen, und dabei immer raffinierter werden, weil sie herausfinden, welche Interaktionen mit der Welt welche Ergebnisse versprechen. Auch in meiner Gruppe wurden dafür in den letzten Jahren wesentliche theoretische Grundlagen gelegt. Aber bis zu praktischen Anwendungen ist es noch ein weiter Weg.
Wann, glauben Sie, nehmen uns die Maschinen das Heft aus der Hand?
Ich will nicht ausschließen, dass ich das noch erleben werde. Aber wann genau scheint schwer vorherzusagen. Vielleicht gibt uns die Geschichte einen Hinweis? Mir fiel einst folgendes einfache Muster auf. Vor gut 40 000 Jahren zog der Homo sapiens aus Afrika los und hat die Welt besiedelt. Vor 20 000 Jahren hatten wir Pfeil und Bogen, vor 10 000 Jahren Ackerbau und Viehzucht und Zivilisation, vor 5000 Jahren Hochzivilisation und die Erfindung der Schrift, vor 2500 Jahren die Antike. Wenn man so in stets halbierten Intervallen weiter rechnet, kommt man erstaunlicherweise stets bei den umwälzenden Erfindungen und Ereignissen heraus. Beim Buchdruck, der ersten kommerziellen Dampfmaschine, der Gründerzeit – und die Abstände werden so rasch kürzer, dass sie in endlicher Zeit zu konvergieren scheinen, und zwar innerhalb der nächsten Jahrzehnte. Mittlerweile erleben wir mehrere Umwälzungen innerhalb eines Menschenlebens. Wir leben in einer ganz besonderen Zeit. Es wäre erstaunlich, wenn wir nicht in ein paar Jahrzehnten intelligente Maschinen hätten, die in vieler Hinsicht dem Menschen überlegen sind.
Macht Ihnen das keine Angst?
Nicht wirklich. Wir sind Teil eines unaufhaltsamen Prozesses, der mir der natürliche Gang der Dinge zu sein scheint. Keiner kann exakt vorhersagen, wohin das alles führen wird. Genauso wenig wie ein einzelnes Neuron in meinem Gehirn prophezeien kann, was das gesamte Gehirn demnächst denken wird. Sehen wir uns als Teil dieses Prozesses. Helfen wir mit, die Entwicklung in vernünftige Bahnen zu lenken. Umarmen wir das Unvermeidliche.
Jürgen Schmidhuber, geboren 1963 in München, leitet das Labor für Künstliche Intelligenz IDSIA bei Lugano und unterrichtet dort an der Universität. Viele Firmen verwenden die in seinem Labor entwickelten Algorithmen.