Künstliche Intelligenz, maschinelles Lernen, Deep Learning – diese Begriffe scheinen austauschbar zu sein, wenn man über intelligente Analysen und maschinelle Automation spricht. Aber sind sie wirklich gleichbedeutend? Die Antwort lautet: größtenteils; denn: Deep Learning etwa ist Teil des maschinellen Lernens; und dieses wiederum ist Teil der künstlichen Intelligenz. Nun mag das zwar eine irgendwie nützliche Antwort sein, aber wir wollen der Sache hier etwas gründlicher nachgehen, indem wir vom Allgemeinen ausgehen und uns dann zu den spezielleren Begriffen vorarbeiten.
Der allgemeinste all dieser populären Begriffe, nämlich „künstliche Intelligenz“ (KI, oder, nach engl. „artifizielle Intelligenz“, auch als AI bezeichnet), bezieht sich auf den Versuch, Maschinen zu bauen, die beinahe wie Menschen denken und lernen können. In ihrer perfekten Ausprägung wäre KI vielseitig und anpassungsfähig und sogar in der Lage, Erkenntnisse, die auf der Lösung eines einzelnen Problems basieren, so zu verallgemeinern, dass auch andere, scheinbar unverwandte Probleme auf ähnliche Weise gelöst werden können.
Die erste Definition von künstlicher Intelligenz wird oft dem berühmten Test zugeschrieben, den Alan Turing skizziert hat. Dieser Test postuliert, dass wenn ein Mensch sich mit einer Maschine unterhält, ohne zu erkennen, dass es sich um eine Maschine handelt, wir es mit KI zu tun haben. Damit ersetzt der Turing-Tests die harte Forderung, ob die Maschine wie ein Mensch denken kann, mit der einfacheren Idee, dass die Maschine nur „so tut“, als sei sie ein Mensch.
Allerdings geraten wir mit dieser Definition – und mit anderen, ähnlichen Tests zur Verbesserung künstlicher Intelligenz – schnell in Schwierigkeiten. Denn in seiner gebräuchlichsten Form könnte der Turing Test (der, darauf sei hingewiesen, sich zwar aus Turings Idee entwickelt hat, aber kein von ihm vorgeschlagener Test ist) theoretisch durch einen hinlänglich hochentwickelten Chatbot erfüllt werden, der von Mustern Gebrauch macht, die eine kohärente Unterhaltung ermöglichen. Es gibt sogar schon Beispiele von Chatbots, von denen angenommen wird, dass sie den Test bestanden haben.
Auf der anderen Seite ist es für Maschinen aber enorm schwierig, die tatsächliche Bedeutung von informellen Sätzen zu erfassen. Jedes Wort zählt ebenso wie die Wortfolge und der Kontext, in dem der Satz gesprochen wird. So, wie die Terminologie von Spezialisten gebraucht wird, wird der Begriff KI heute fast ausnahmslos für natürliche Sprachprozesse verwendet; denn erst wenn natürliche Sprache verstanden wird, spricht man von „AI Complete“. Hätte man dieses Problem vollends gelöst, wäre man dem Ziel der artifiziellen Intelligenz schon ein großes Stück näher gekommen. Manche Fachleute glauben, dass die Verarbeitung von natürlichen Sprachprozessen gleichzusetzen ist mit der Schaffung von echter KI. Somit ist der Turing Test eigentlich eine ziemlich gute Idee für das, was wir als eine intelligente Maschine betrachten würden. Leider lässt er sich aber in der Praxis kaum einsetzen.
Obwohl es beim großen Rummel um KI vor allem um die angestrebte (aber von vielen, auch von großen Denkern wie Stephen Hawking gefürchtete) allgemeine KI geht, spielen sich die tatsächlichen Entwicklungen vor allem auf dem praktischen Gebiet der intelligenten Tools ab, bei denen wir von spezieller (oder schwachen) KI reden: von Siri („Speech Interpretation and Recognition Interface“) über Programme, die automatisch mit Aktien handeln, sowie Schach spielende Algorithmen bis hin zu Park-Assistenz und der Software für selbstfahrende Autos: Wir sind heute allüberall von der sog. schwachen KI umgeben. Es sind spezialisierte Tools, die besondere Aufgaben hervorragend erfüllen. Bezeichnenderweise handelt es sich bei solchen Aufgaben allerdings meist um solche, bei denen die Menschen nicht besonders gut sind. Das aber zeigt erneut ein grundlegendes Problem in der Art und Weise, wie wir menschliche und maschinelle Intelligenz verstehen. Herausforderungen wie Schach, Go oder die Analyse von riesengroßen Datenmengen, die für unsere organische Hardware äußerst schwierig oder völlig unmöglich zu bewältigen sind, lassen sich viel besser durch moderne Computer-Algorithmen lösen. Und doch gibt es noch immer keinen Computer, der dem „gesunden Menschenverstand“ eines unabhängig denkenden vierjährigen Kindes gleichkommt.
Um noch etwas präziser zu werden: Maschinelles Lernen ist ein Teil der KI, bei dem es im Kern um einen anspruchsvollen Ansatz von Datenanalysen geht, den es im Grunde schon seit den 1980-er Jahren gibt, obwohl er erst seit ca. 2010 an Dynamik und Anerkennung gewonnen hat, nachdem er erst mit der Weiterentwicklung von Rechnerleistungen sein volles Potenzial entfalten konnte. Bei diesem Ansatz werden, allgemein gesagt, verschiedene algorithmische Lösungswege eingeschlagen (die wir „neuronale Netze“ nennen), die automatisch aus großen Datenmengen analytische Modelle bilden. Dies wird durch Algorithmen möglich, die in der Lage sind, aus Datenmengen selbstständig zu lernen. Auf diese Weise werden Programme in die Lage versetzt, Schlüssel-Erkenntnisse zu gewinnen, ohne dass man ihnen zuvor gesagt hätte, wonach genau sie gucken sollen. In unserem Artikel über neuronale Netze erläutern wir, wie sehr diese (künstliche) Architektur der Struktur und Funktionsweise des menschlichen Gehirns gleicht. Kurz: neuronale Netze sind Computersysteme, die Informationen klassifizieren und die selbst hinzulernen können, sobald sie neuen Informationen ausgesetzt sind. Das Modell des neuronalen Netzes ermöglicht es den Programmen auch, ihre gewonnenen Erkenntnisse in die Zukunft hinein zu projizieren, indem auf der Basis von bisherigem Wissen Vorhersagen gemacht werden. Ein solcher Ansatz der maschinellen Intelligenz hat den Vorteil, die Vielseitigkeit und Anpassungsfähigkeit des menschlichen Verstandes zu simulieren und gleichwohl die dem Computer innewohnende Überlegenheit uns gegenüber beizubehalten, nämlich: Geschwindigkeit und Genauigkeit der Verarbeitung sowie die Ausblendung von erfahrungsbasierten Vorurteilen. Dieser Ansatz wird zwar noch keinen unabhängigen, selbst-aktivierenden maschinellen „Verstand“ hervorbringen, wie ihn Science Fiction Autoren visualisieren, aber er ist enorm leistungsfähig, um heute schon viele aktuelle Probleme zu lösen.
Es gibt mehrere verschiedene Arten von neuronalen Netzen. Die unkomplizierteste und einfachste Art eines neuronalen Netzes ist das Perzeptron-Netz, das nur eine einzelne sogenannte verborgene Neuronenschicht (einlagiges Perzeptron) enthält. Trotz seiner Einfachheit können diese Art Netze häufig vorkommende Datenbeziehungen sehr genau darstellen. Solche Perzeptron-Netze stellen die große Mehrheit der neuronalen Netz-Methoden dar, die gegenwärtig in vielen praktischen Anwendungen zum Einsatz kommen.
Deep Learning, auch eine Art maschinelles Lernen, ist ein anderer Typ eines neuronalen Netzes, der sich in jüngster Zeit großer Beliebtheit erfreut. Die besondere Charakteristik von Deep Learning ist, dass es zwischen Input und Output mehrere Lagen (Layers) von verborgenen Neuronen enthält, wobei jeder Layer den Output des vorherigen Layers als seinen eigenen Input verwendet. Die Forschung in diesem Bereich wird vor allem durch die Notwendigkeit vorangetrieben, unbenannte Daten von riesigem Umfang zu verarbeiten, um Probleme anzugehen, die zu analysieren für maschinelles Lernen immer noch eine große Herausforderung darstellen – wie Bildklassifizierung, Spracherkennung oder auch nur das Heraussuchen eines gefälligen Standbildes aus einem Video.
Und schließlich gibt es noch eine weitere interessante – und für unsere Arbeit bei algorithmica technologies sehr relevante – Art von Netzen, nämlich die „recurrent neural networks“ (RNNs oder dt.: „rekurrente neuronale Netze“). Wir wollen hier nicht in die tieferen technischen Details dieser Besonderheiten einsteigen, weil die nämlioch extrem fachspezifisch werden können. Darum hier nur kurz die folgende Information: Herkömmliche neuronale Netze stellen eine Beziehung zwischen Input und Output her, berücksichtigen aber nicht, inwieweit die verschiedenen Inputs miteinander in Beziehung stehen. Wenn es beispielsweise bei den Inputs um Beobachtungen derselben Sache zu unterschiedlichen Zeiten geht, so würden wir diese inhärente Zeitabhängigkeit irgendwie darstellen wollen. Und das kann man mit den RNN, weil diese für die innerhalb des neuronalen Netzes verbundenen Neuronen in der Lage sind, Kreisläufe (oder Schleifen) zu bilden. Solche (kurzen oder langen) Netz-Schleifen verhalten sich wie Kurzzeit- oder Langzeitgedächtnisse des Gehirns. Wenn wir dynamische Prozesse modellieren wollen, bei denen Ursache-und-Wirkungs-Effekte dargestellt werden sollen, brauchen wir solche rekurrenten Fazilitäten. Deshalb sind RNNs sehr schlagkräftige Instrumente, um viele praktische Probleme zu modellieren – einschließlich vieler komplexer industrieller Prozesse.
Zum Schluss sei noch der wichtige Hinweise gegeben, dass es für Experten in der Tat Unterschiede zwischen den oben erläuterten Begriffen gibt und diese entsprechend auch unterschiedlich verwandt werden, diese Begriffe in der populären Diskussion aber häufig austauschbar zu sein scheinen. Der Ausdruck „Deep Learning“ beispielsweise wird häufig eingesetzt, um das neuronale Netz – das es ja schon seit den 80-er Jahren gibt, als etwas Neues und Spannendes „aufzupolieren“.