Wenn Maschinen lernen
Big Data, künstliche Intelligenz, Industrie 4.0 – die neuen M?glichkeiten der Informationstechnologien werden die Welt ver?ndern. Ein Blick in? die Welt der Forscher, die Maschinen das Denken beibringen.
Eine Google-Suchanfrage nach Roger Federer, dem Schweizer Tennisstar, kommt auf 28'900'000 Eintr?ge. Fussball-Weltstar Lionel Messi erzielt immerhin 61'300'000 Eintr?ge. Einer schl?gt sie locker: Die Suche nach AlphaGo, dem Computer, der im M?rz dieses Jahres einen Meisterspieler im Strategiespiel Go besiegte, führt zu 313'000'000 Treffern. AlphaGo beherrschte dieses Frühjahr die Schlagzeilen: Maschine triumphiert über Mensch – der Sieg von AlphaGo war das Horrorszenario schlechthin für die einen, Durchbruch der künstlichen Intelligenz für die andern.
Die Meisterspieler
Joachim Buhmann, Informatikprofessor und Leiter des Instituts für maschinelles Lernen an der ETH Zürich, beurteilt die Situation nüchterner: ?Der Algorithmus des Go-Spielers hat natürlich einen Meilenstein im Bereich des Machine Learning gesetzt. Aber es ist ein Meilenstein in einem sehr abgegrenzten, künstlichen Feld?, sagt Buhmann. Seit den Anf?ngen der Informatik als Wissenschaft waren Strategiespiele eine der Herausforderungen, an denen sich Fortschritte vergleichsweise leicht messen liessen. Den Anfang machten einfache Spiele wie Mühle oder Dame. 1997 schlug der Computer Deep Blue den Schachweltmeister Garri Kasparow. Danach geriet bald das wesentlich komplexere Go-Spiel als n?chster m?glicher Meilenstein ins Visier der Programmierer.
Eigentlich interessant sei aber nicht die Tatsache, dass AlphaGo nun den Sieg davongetragen habe, sondern wie: im Gegensatz zum Computer Deep Blue n?mlich nicht durch schiere Rechengeschwindigkeit, sondern viel mehr durch enorme Rechenleistung, ?kombiniert mit einer Art cleveren Lernens?, erl?utert Buhmann. Doch er schr?nkt ein: ?Das erfolgreiche L?sen solcher Spielprobleme ist nicht der ganz grosse Durchbruch, weil sich wirkliche Intelligenz durch Entscheidungsfindung bei grosser Unsicherheit auszeichnet. Und der Spielrahmen z?hmt die Unsicherheit doch dramatisch.? ?hnlich sieht es sein Forscherkollege Thomas Hofmann, einer der Direktoren des neuen externe Seite Zentrums für Lernende Systeme der ETH und der Max-Planck-Gesellschaft: ?Wir wollen Maschinen bauen, die sich in der realen Welt bew?hren. Selbstfahrende Autos etwa sind mit wesentlich komplexeren und folgenreicheren Entscheidungen konfrontiert.?
Training im Datenmeer
Dennoch: Das Vorgehen, wie die Sch?pfer von AlphaGo ihren Computer zur Meisterschaft brachten, ist typisch auch für viele andere Bereiche des maschinellen Lernens. Zu Beginn fütterten die Konstrukteure von AlphaGo die Maschine mit 150'000 Spielpartien, die von guten Spielern bestritten worden waren, und nutzten ein künstliches neuronales Netzwerk, um typische Muster in diesen Spielpartien zu identifizieren. Insbesondere lernte die Maschine vorherzusagen, welchen Spielzug ein menschlicher Spieler in einer bestimmten Position einsetzen würde. Dann optimierten die Designer das neuronale Netzwerk, indem sie es immer wieder gegen frühere seiner eigenen Spielversionen antreten liessen. So verbesserte das Netzwerk durch st?ndige kleine Anpassungen nach und nach seine Gewinnchancen weiter. ?Es sind zwei Ingredienzien, die diese Art des Lernens m?glich machen?, erkl?rt Hofmann. ?Man braucht sehr viele Daten als Lernmaterial und genügend Rechengeschwindigkeit.? Beides ist heute in vielen Bereichen vorhanden.
Damit hat sich das Vorgehen der Entwickler in der künstlichen Intelligenz dramatisch gewandelt. Joachim Buhmann erl?utert dies am Gebiet der Bilderkennung: Früher mussten Bildexperten dem Computer detailliert vorgeben, aufgrund welcher Merkmale er eine Darstellung beispielsweise als Gesicht kategorisieren sollte. ?Das bedeutete einerseits, dass wir auf das Wissen von Experten angewiesen waren und dass wir ausserdem Unmengen von Regeln als Codes schreiben mussten?, erinnert sich der Forscher. Heute genügt es, ein Metaprogramm zu schreiben, das nur die Grundprinzipien des Lernens festlegt. Dann lernt der Computer selbstst?ndig anhand von vielen Bildbeispielen, welche Merkmale ein Gesicht darstellen. An Lernmaterial herrscht dank Facebook, Instagram und Co. kein Mangel: ?Wir k?nnen heute locker viele Millionen Bilder oder mehr als ?bungsmaterial verwenden?, sagt Buhmann.
Der Computer als Arzt
Sein Spezialgebiet ist die Bilderkennung im medizinischen Bereich. Gerade hier zeige sich der Vorteil des maschinellen Lernens deutlich: ?Früher haben wir versucht, das Expertenwissen der Mediziner zu erfragen und es dann detailliert in Regeln umzusetzen. Damit haben wir grandios Schiffbruch erlitten, weil selbst gute ?rzte oft keine eindeutigen Erkl?rungen für ihr Handeln liefern k?nnen.? Heute suchen Computerprogramme in grossen Mengen von Bilddaten selbstst?ndig nach statistisch relevanten Mustern. Konkret wenden Buhmann und seine Kollegen solche Verfahren beispielsweise in der Krebsforschung an, aber auch bei der Untersuchung von neurologischen Erkrankungen wie Schizophrenie oder degenerativer Hirnerkrankungen wie Demenz oder Parkinson.
Unter anderem haben sie ein Programm entwickelt, mit dessen Hilfe Pathologen den voraussichtlichen Verlauf einer bestimmten Nierenkrebsform genauer absch?tzen k?nnen. Dazu werden den Patienten Biopsien entnommen, von denen histologische Schnitte erstellt werden. Mittels bestimmter Einf?rbungen werden relevante Merkmale sichtbar gemacht. Die Schnitte werden digitalisiert und mit Hilfe maschineller Bildanalyseverfahren ausgewertet. Dabei geht es beispielsweise darum, die Krebszellen, die sich gerade teilen und durch die Einf?rbungen sichtbar wurden, zu z?hlen. Aufgrund solcher Z?hlungen erstellt der Computer sodann in Kombination mit weiteren Daten Prognosen für bestimmte Patientengruppen. In einem anderen Projekt wurden per Computer Magnetresonanzaufnahmen der Hirne von Schizophreniepatienten analysiert. Die Bildanalyse ergab drei Gruppen von Patienten mit deutlich unterschiedlichen Aktivit?tsmustern im Hirn. ?Wir haben gelernt, dass Schizophrenie nicht gleich Schizophrenie ist?, erl?utert Buhmann. ?Jetzt ist es Sache der Pharmazeuten und ?rzte, für jeden Patiententyp die richtige Behandlung zu finden.? Gut m?glich, dass automatisierte Analysen von Hirnbildern auch dabei helfen.
Sprache und Sinn
Was für Buhmann die Bilderkennung, ist für seinen Forscherkollegen Thomas Hofmann die Sprache. ?Spracherkennung als Teilgebiet der künstlichen Intelligenz ist vor allem dort gefragt, wo es um die Interaktion von Mensch und Maschine geht?, erl?utert Hofmann. Dem selbstfahrenden Auto wolle er dereinst nicht mehr mühsam über eine Tastatur erkl?ren müssen, welches Ziel er ansteuern wolle, sondern lieber spontan mit mündlichen Anweisungen. Hofmann ist überzeugt, dass es nicht mehr lange dauern wird, bis es so weit ist. ?Wir k?nnen heute ganz anders an das Problem herangehen, wie eine Maschine Texte verstehen kann, als früher.?
Big Data liefert auch hier das Material, anhand dessen die Maschinen üben, Texte zu verstehen. Das Web ist ein unermesslicher Sprachschatz, ein riesiger Trainingsparcours, mit dessen Hilfe die Maschinen statistische Regularit?ten herausfiltern, die ihnen Zusammenh?nge zwischen Worten zeigen. ?Und zwar viel besser, als wir das mit abstrakten linguistischen oder phonetischen Regeln jemals gekonnt h?tten?, sagt Hofmann. Konkrete Anwendung finden solche Verfahren auch, wenn es darum geht, ?bersetzungsprogramme zu optimieren oder Suchmaschinen. Hofmann entwickelt mit seinem Team ein Programm, das anhand aller Wikipedia-Eintr?ge (das sind über 5 Millionen englischsprachige Eintr?ge) lernt, Texte und Worte sinnvoll miteinander zu verlinken. Die Links und Querverweise zu anderen Beitr?gen, die heute jeder Wikipedia-Autor noch von Hand macht, wird in Zukunft der Computer setzen – schneller und umfassender, als ein Autor es k?nnte. ?Es f?ngt bei den elementaren Wortbedeutungen an. Aber dann sollen unsere Programme auch die Bedeutung von ganzen S?tzen verstehen und schliesslich ganze Diskurse?, sagt Hofmann.
Mit Maschinen auf Augenh?he
Zukunftsmusik? Nur teilweise. ?bersetzungsprogramme haben in den letzten Jahren bereits enorme Fortschritte gemacht. Suchmaschinen werden st?ndig besser, Computerprogramme verfassen Sportmeldungen. Hofmann selbst war in den USA an der Gründung einer Firma namens Recommind beteiligt. Deren Programme analysieren und sortieren Texte hinsichtlich juristisch relevanter Inhalte. ?Wir automatisieren das Aktenstudium, für das Anw?lte bisher endlos Zeit gebraucht haben?, erl?utert der Forscher. Die Firma besch?ftigt heute weltweit 300 Mitarbeiter und ist Marktführerin auf ihrem Gebiet.
Recommind ist nur ein Beispiel, wie die neuen Technologien selbst die Arbeit hochqualifizierter Berufsgruppen ver?ndern werden. Hofmann ist überzeugt, dass es nur sehr wenige Berufsgruppen gibt, die durch den technologischen Wandel nicht betroffen sein werden. ?Bisher haben Maschinen repetitive, mechanische Arbeiten übernommen. In Zukunft werden sie auch intelligente Entscheidungen treffen?, so der Forscher. Auch Buhmann ist überzeugt: ?Die neuen intelligenten Technologien werden in Zukunft auch T?tigkeiten von sehr gut Ausgebildeten erg?nzen oder gar ersetzen.? So werde durch die neuen M?glichkeiten der Bildanalyse sicher die Arbeit der Pathologen massiv ver?ndert. ?Wir werden in Zukunft deutlich weniger Pathologen brauchen – aber dafür k?nnten ?rzte mehr Zeit für die psychische Betreuung von Kranken einsetzen?, gibt der Forscher zu bedenken. Sein Kollege Hofmann erg?nzt: ?Technologisch gesehen ist alles m?glich. Es ist eine Frage des gesellschaftlichen Gestaltungswillens, wie wir mit dem technologischen Wandel umgehen.?