Künstliche Intelligenz: wie Maschinen das Riechen lernen

Maschinen zeigen immer mehr Fähigkeiten einer echten künstlichen Intelligenz (KI). Sie können Schachgrossmeister schlagen, Quiz-Shows mit Millionenpreisen gewinnen, bei der Diagnose von Krebs helfen und bald vielleicht sogar wie eine menschliche Nase Gerüche wahrnehmen. Ein Blick auf die künstliche Intelligenz und was sie für unsere Zukunft bedeutet.

Im Jahr 2011 nahm Watson, ein von IBM entwickelter und mit künstlicher Intelligenz ausgestatteter Computer, an einer Sonderfolge der amerikanischen Quizsendung «Jeopardy!» teil. Die Sendung, die Wert auf unkonventionelles Denken, Sprachverständnis und Geschwindigkeit legt, schien für Computer-Intelligenz ein zu anspruchsvolles Ziel zu sein. Watson ging jedoch im direkten Wettbewerb gegen die beiden Gewinner der höchsten Preisgelder in der Geschichte der Sendung als Sieger hervor. Das wirft die Frage auf: Könnten wir am Beginn des Zeitalters echter künstlicher Intelligenz stehen?

Der Begriff «Artificial Intelligence» («künstliche Intelligenz») wurde in den 1950er Jahren vom Kognitionswissenschaftler John McCarthy geprägt, der sie als «Wissenschaft über intelligente Maschinen und deren Konstruktion» beschrieb. Heutzutage wird mit künstlicher Intelligenz die Fähigkeit von Computern und Computersoftware bezeichnet, intelligentes Verhalten zu zeigen. Mit diesem Thema beschäftigen sich Forscher bereits seit einem halben Jahrhundert.

Die technologische Entwicklung konnte jedoch dem anfänglichen Optimismus in Bezug auf das Potenzial künstlicher Intelligenz nicht gerecht werden. Obwohl es in den 1970er Jahren Computer gab, die mathematische Theoreme beweisen, Dame spielen und sogar sprechen konnten, waren diese Errungenschaften nicht im grossen Massstab umsetzbar. Grundsätzlich waren die Maschinen nur so klug wie die Informationen, die ihnen von ihren menschlichen Programmierern gegeben wurden; man konnte nur von ihnen erhalten, was ihnen zuvor eingegeben worden war.

Das Mooresche Gesetz und exponentielles Wachstum

Technologische Fortschritte im Bereich der Computer-Hardware in den 1980er Jahren trugen jedoch zu einem Durchbruch in der KI-Forschung bei. Diese Fortschritte wurden im Jahr 1965 durch eine Beobachtung des Elektroingenieurs (und Gründers der Intel Corporation) Gordon Moore vorhergesagt. Das Mooresche Gesetz, so der Name dieser Beobachtung, bezieht sich auf die Rechenleistung integrierter Schaltkreise: Moore stellte die Hypothese auf, dass die Anzahl der Transistoren in einem integrierten Schaltkreis – und damit die Rechenleistung des Schaltkreises – sich alle zwei Jahre verdoppeln würde. Die Prognose ist bis heute gültig, was das exponentielle Wachstum und die weitreichende Bedeutung von Computern und der digitalen Elektronikbranche als Ganzes unterstreicht.

In Bezug auf künstliche Intelligenz liegt die wesentliche Bedeutung des Mooreschen Gesetzes in der Evolution des maschinellen Lernens: der Fähigkeit zur Entwicklung und Implementierung von Algorithmen – den Regeln für Berechnungen und Problemlösungsvorgänge durch Computer –, die tatsächlich aus wahrgenommenen Rohdaten lernen können, statt nur bereits vorgegebene Informationen abzurufen. Watsons Geschick bei der Decodierung linguistischer Rätsel, um bei «Jeopardy!» zu gewinnen, zeigt diese Fähigkeit deutlich.

Big Data: Bereitstellung von Kontext

Maschinelles Lernen wiederum wird erleichtert durch den Einsatz von Big Data – riesige Datensätze, die aufgrund unzureichender Methoden zur Datenverarbeitung früher nicht analysiert und interpretiert werden konnten. Uwe Neumann, Senior Credit Analyst bei der Credit Suisse, erklärt, dass Big Data die Rahmenbedingungen für neue, hochentwickelte Methoden schafft, mit denen ein Nutzen aus Informationen gezogen wird. «Grundsätzlich umfasst Big Data die Analyse strukturierter und unstrukturierter Daten», legt Neumann dar. Strukturierte Daten im Rahmen vorgegebener Parameter – man denke an die menschlichen Programmierer früher KI-Maschinen – haben bei der Problemlösung einen eingeschränkten Anwendungsbereich. Aber die Verwendung prädiktiver Analysen und anderer Data-Scraping-Methoden, die durch technologische Fortschritte möglich werden, hat Computern fortgeschrittene Methoden zur Beurteilung, Analyse, Bewertung und Einstufung unstrukturierter Daten zur Verfügung gestellt. «Jetzt ist es möglich, Daten auszuwerten, die nicht in eine Struktur passen, aber in einen Kontext gesetzt werden können», betont Neumann. Dies ist ein bedeutender Schritt in Richtung einer funktionalen künstlichen Intelligenz.

Von Deep Learning zum Riechen – eine künstliche Nase

Bei künstlicher Intelligenz geht es nicht nur definitionsgemäss um das menschengleiche Denken von Maschinen, sondern auch um die Ausstattung von Maschinen mit menschlichen Fähigkeiten: die Fähigkeit, wie ein Mensch auf die Umgebung zu reagieren und zur Untermauerung des Entscheidungsprozesses, bei dem der Mensch nach wie vor der Maschine überlegen ist, Daten zu beurteilen, zu verarbeiten und zu bewerten. Lavi Secundo, ein Forscher in der Neurobiologie-Abteilung des israelischen Weizmann-Instituts für Wissenschaften, ist Teil eines Teams, das an einem faszinierenden KI-Projekt arbeitet: dem Bau einer künstlichen Nase.

Es gibt Maschinen, hauptsächlich im Sicherheitsbereich, die in der Lage sind, eine Umgebung zu analysieren und das Vorhandensein bestimmter Chemikalien in der Atmosphäre zu bestimmen – eine grobe Annäherung an «Riechen». Aber das Weizmann-Projekt ist weitaus komplexer; es handelt sich um die Entwicklung einer Maschine, die flüchtige Moleküle erkennen und die Empfindung des Geruchs nachbilden kann. «Wir versuchen, einen Wortbestand für das Riechen zu entwickeln; wir trainieren die künstliche Nase, die Umgebung in allgemeinen Begriffen zu beschreiben, ohne auf spezifische molekulare Beschreibungen zurückzugreifen», so erklärt Secundo die Nachbildung der olfaktorischen Komplexität der menschlichen Nase, um damit Maschinen das Überschreiten der begrenzten Fähigkeiten chemischer Erkennung zu ermöglichen. Secundo erläutert, dass dies zum Teil parallel erfolgenden Entwicklungen bei Deep Learning zu verdanken ist – der Verwendung von Computeralgorithmen, die Datenabstraktionen auf höchster Ebene modellieren. Die Algorithmen analysieren Daten auf nicht lineare, aber effektive Weise – sie überwinden die Hürden, die die künstliche Intelligenz früher behinderten.

Die Zukunft der künstlichen Intelligenz – oder des Menschen?

Künstliche Intelligenz ist bereits führend bei wichtigen Entwicklungen zu Produktivität und Effizienz, sowohl am Arbeitsplatz als auch in der Freizeit. Eine Frage muss man sich allerdings stellen: Wenn diese Entwicklungen die exponentiellen Verbesserungen der Technologie widerspiegeln, die die künstliche Intelligenz hervorgebracht hat, wird sie dann die Menschen eines Tages überflüssig machen? Neumann glaubt, dass diese Frage im Moment unbeantwortet bleibt. «Wenn eine Maschine beginnt, schneller als ein menschliches Gehirn zu lernen, wird ein Wendepunkt erreicht», fügt er hinzu. In der Zwischenzeit, so betont er, diene die künstliche Intelligenz als Tool zum Abgleich und zur Interpretation von Finanzdaten. «Das könnte Analysten wie mich arbeitslos machen», lacht er ironisch.

Dies betrifft nicht nur den Bereich Finanzanalysen. Auf die eine oder andere Art wird künstliche Intelligenz bereits in einer Vielzahl von Berufssparten genutzt, wie Recht, Medizin und (man gibt es nur ungern zu) Journalismus. Falls das Mooresche Gesetz weiterhin gültig bleibt, und selbst wenn der technologische Fortschritt hinter seinem derzeitigen exponentiellen Wachstum zurückbleiben sollte, könnte es gut sein, dass in gar nicht so ferner Zukunft Computer technisch so ausgereift sind, dass sie ihre menschlichen Schöpfer ersetzen können.

Ein Gleichgewicht zwischen Wohlstand und Gefälle

Aber damit greifen wir der Sache vielleicht doch etwas vor. In ihrem einflussreichen Buch «The Second Machine Age» aus dem Jahr 2014 argumentieren die MIT-Akademiker Erik Brynjolfsson und Andrew McAfee, dass die eigentliche Frage nicht ist, ob Computer die Menschen ersetzen werden, sondern vielmehr, wie Menschen mit dem zweifellos bestehenden Mehrwert umgehen werden, den die künstliche Intelligenz und andere technologische Entwicklungen für unser Leben bedeuten. Konkret betrachten sie als unmittelbare Herausforderung die Lücke zwischen dem, was sie als Wohlstand – das wirtschaftliche Ergebnis erhöhter Produktivität durch Technologie – und Gefälle – die Konzentration des erwähnten Wohlstands in den obersten Perzentilen der Allgemeinbevölkerung – bezeichnen. «Die Technologien, die wir schaffen, bieten eine wesentlich grössere Macht, um die Welt zu verändern», schreiben sie, «aber letztlich hängt die Zukunft, die wir bekommen werden, von unseren Entscheidungen ab.»

Künstliche Intelligenz, menschlicher Einfallsreichtum

Künstliche Intelligenz, so kann man vermuten, wird letzten Endes den Zweck widerspiegeln, für den wir sie einsetzen. Secundos künstliche Nase zum Beispiel kann im Laufe der Zeit ein unerlässlicher Helfer im medizinischen Bereich werden und eine technisch ausgereiftere Alternative mit besserem Wahrnehmungsvermögen im Vergleich zu den derzeitigen Diagnosetests darstellen. Dadurch wird sich unsere Lebensqualität zweifellos verbessern. Und unser intelligenter Computer und Quizshow-Sieger Watson? Er – oder seine Technologie – dient nun als Diagnoseinstrument am Memorial Sloan-Kettering Cancer Centre in New York. Er hilft Ärzten und Krankenpflegern beim Filtern der riesigen Menge an Forschungserkenntnissen und genetischen Daten, Verfahren und Medikamenten, die bei der Krebsbehandlung eingesetzt werden. Und er ersetzt nicht den Arzt: Vielmehr stellt er eine Reihe von absolut präzisen Optionen zur Verfügung, untermauert durch die Daten, auf denen seine Schlussfolgerungen basieren. Künstliche Intelligenz kann, so scheint es, mit der richtigen menschlichen Ausrichtung einen Beitrag zu einer besseren Welt leisten.