Das dunkle Geheimnis im Herzen der KI – Teil 3

Zuerst war diese Methode in der Praxis nur sehr limitiert anwendbar. In den 1960er und ‘70er war weiter nur sehr begrenzt möglich, die Methoden zu nutzen. Erst die Technisierung von vielen Branchen und das Entstehen von großen Datenbanken erneuerte das Interesse. Auf diese Weise wurde die Entwicklung von neuen, mächtigeren Machine-Learning-Techniken inspiriert, speziell solche, die auf der Idee von künstlichen neuronalen Netzwerken beruhen. In den 1990ern konnten neuronale Netze automatisch handgeschriebene Buchstaben digitalisieren.

Es dauerte jedoch bis Anfang dieses Jahrzehnts, bis sehr große, oder „tiefe“ neuronale Netzwerke dramatische Verbesserung in der automatischen Erkennung passierten, und auch das erst nach vielen Anpassungen und Erweiterungen. Deep Learning ist für das unglaubliche Wachstum von KI heute verantwortlich. Durch diese Technik haben Computer immense Macht gewonnen. Zum Beispiel wäre Spracherkennung ohne den selbstlernenden Computer nicht möglich, da es viel zu komplex wäre, dies manuell zu programmieren. Deep Learning hat die Vision von Computern transformiert und das Machine Learning dramatisch verbessert. Es wird heute dazu genutzt, um Kernentscheidungen in den verschiedensten Bereichen, wie Medizin, Finanzen, Fertigung zu unterstützen.

Die Arbeit einer jeden Machine-Learning-Technologie ist der Sache entsprechend sehr viel undurchsichtiger als handgemachter Code – und das nicht nur für „normale Menschen“, sondern auch für Informatiker und Mathematiker. Das bedeutet nicht zwangsläufig, dass auch zukünftige Technologien derart undurchschaubar bleiben. Es bedeutet aber, dass Deep Learning aus seiner eigenen Natur heraus ein schwarzes Loch ist.

Man kann nicht einfach in ein Deep Neural Network hineinschauen, um zu sehen wie es funktioniert. Das Gründe für das Verhalten eines Netzes ist in Tausende von simulierten Neuronen, die in hunderten von Ebenen organisiert und vielfältig verbunden sind, einprogrammiert. Die Neuronen in der ersten Ebene (Layer) erhalten alle eine Eingabe, wie beispielsweise die Intensität eines Pixels in einem Bild, und berechnen daraus Ergebnisse, neue Signale. Diese Ergebnisse werden wieder, zumindest in einem komplexen Netz, wieder in die Neuronen der nächsten Ebene eingespielt, und so weiter. Dieser Prozess läuft so lange, bis das endgültige Ergebnis gerechnet wurde. Außerdem gibt es einen Prozess, der als Backpropagation (Rückpropagierung) bekannt ist. Dieser Prozess wird genutzt, um die Berechnungen jedes Neurons so zu optimieren, dass das lernt, den gewünschten Output zu kreieren.

Die verschiedenen Ebenen (Layers) eines tiefen Netzes (deep network) ermöglichen es, Dinge auf verschiedenen Ebenen der Abstraktion zu erkennen. In einem System, das entwickelt wurde um Hunde zu erkennen, werden sich die niedrigeren Layer damit beschäftigen, Dinge wie die Umrandung oder die Farben zu erkennen. Höhere Layers erkennen komplexere Dinge, wie zum Beispiel das Fell oder die Augen. Der höchste Layer verbindet dann alle vorhergegangenen Informationen und identifiziert nun den Hund. Denselben Ansatz kann man verwenden, um – einfach gesprochen – auch für andere Probleme nutzen, wie zum Beispiel die einzelnen Töne zu verstehen, die am Ende Wörter bilden, die Buchstaben, die dann Worte bilden, die dann wieder Sätze in einem ganzen Text bilden, oder aber auch die Bewegungen eines Lenkrads, die es braucht um zu fahren.

Ausgeklügelte Strategien wurden entwickelt, um mitzuschneiden, was in einem solchen System geschieht, um so detaillierter erklären zu können, was dort geschieht. 2015 haben zum Beispiel Google-Forscher ein auf Deep Learning basiertes Bilderkennungssystem so modifiziert, das es die Bilder entweder modifizierte oder neue erstellte. Anschließend konnte der Algrithmus umgedreht werden. Auf diese Weise konnten die Schritte nachvollzogen werden, die das System nutzt, um ein Bild zu erkennen. Die entstandenen Bilder, das Projekt wurde Deep Dream genannt, zeigten groteske, an Aliens erinnernde Tiere, die aus Wolken und Pflanzen wuchsen. Außerdem waren Pagoden zu erkennen, die über Wald- und Berglandschaften blühten. Diese Ergebnisse zeigten, dass Deep Learning nicht völlig undurchschaubar ist. Die Algorithmen basierten weiter auf bekannten visuellen Features, wie beispielsweise Vogelschnäbel oder Federn, aber die Bilder zeigten auch, wie sehr sich die Wahrnehmung eines Algorithmus von der menschlichen unterscheidet. Sichtbar wurde dies vor allem an den Stellen, an denen aus Artefakten, die wir Menschen ignorieren würden, etwas neues entstand. Google-Forscher haben beispielsweise festgestellt, dass der Algorithmus immer dann, wenn er eine Hantel „zeichnete“ auch einen Arm erstellte, der sie festhielt. Die Maschine hatte sich angeeignet, dass ein Arm teil der Sache war.

Nächste Woche geht es weiter…

1 Antwort
  1. VOGAYO says:

    Vielen Dank für die interessante Artikelreihe. Wir versuchen gerade im Reisebereich das Thema KI umzusetzen und wir stoßen definitiv an unsere Grenzen. Wir denken aber auch, KI bestimmt die Zukunft, ob man nun möchte oder nicht.

    Antworten

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.