Das dunkle Geheimnis im Herzen der KI – Teil 2

Es gibt bereits eine Auseinandersetzung darüber, ob es ein Grundrecht werden soll, Einblick in die Entscheidungsfindung von KI‘s zu erhalten. Von 2018 an wird die EU wohl von allen Unternehmen verlangen, dass sie in der Lage sind den Nutzern zu erklären, wie das automatische System zu einer Entscheidung gelangt ist. Dies könnte allerdings selbst für auf den ersten Blick einfache Systeme, wie Apps und Websites, die Deep Learning nutzen, um Werbung zu senden oder Musik vorzuschlagen. Die Computer, auf denen derartige Services laufen, haben diese selbst entwickelt und wir können diese nicht verstehen. Sogar die Ingenieure, die diese Systeme bauen, verstehen ihr verhalten nicht vollständig.

Diese Tatsache lässt verwirrende Fragen entstehen. Während sich die Technologie weiterentwickelt, könnten wir bald die Grenze erreichen an der es nötig wird KI‘s einen großen Vertrauensvorschuss zu geben, falls wir sie weiter einsetzen möchten. Sicher, Menschen können ihre Denkprozesse oft ebenfalls nicht ebenfalls nicht vollständig erklären, aber wir finden Wege, um intuitiv zu bewerten und zu vertrauen. Wird dies auch bei Maschinen, die denken und Entscheidungen treffen, die sich vollständig von unseren menschlichen Prozessen unterscheiden? Wir haben noch nie zuvor Maschinen gebaut, deren Funktionsweise wir nicht verstehen. Wie gut können wir mit intelligenten Maschinen kommunizieren, wie gut werden wir mit ihnen auskommen, wenn diese sich unvorhersehbar und undurchschaubar verhalten? Diese Fragen brachten mich dazu, eine Reise zur Weltspitze der Forschung zu KI-Algorithmen. Von Google bis Apple und einer Menge Unternehmen dazwischen, inklusive einem Treffen mit einem der größten Philosophen unserer Zeit.

2015 hat eine Forschergruppe am Mount Sinai Krankenhaus in New York einen Deep Learning Algorithmus auf die enorme Patientendatenbank losgelassen. Dieses Datenset beinhaltete hunderten von Variablen zu jedem Patienten, der getestet wurde, einen Arzt besuchte, usw. Das daraus resultierende Programm, das die Forscher Deep Patient nannten, wurde an Daten von über 700.000 Patienten trainiert und lieferte dann bei neuen Tests Krankheiten eine überragende Leistung bei der Vorhersage von Krankheiten. Ohne jede Unterstützung durch Experten hat Deep Patient versteckte Muster in den Daten des Krankenhauses entdeckt, die zu zeigen schien, wenn ein Patient ein neues Gebrechen entwickelte, bis hin zu Leberkrebs. Es gibt einige „relativ gute“ Methoden um Krankheiten aus den den Patientenakten herauszulesen, sagt Joel Dudley, der das Mount Sinai Team leitet. Er fügt aber hinzu, das „das [neue Verfahren] war einfach viel besser.“

Gleichzeitig ist Deep Patient ein wenig rätselhaft. Es scheint den Anfang einer psychologischen Erkrankung, wie etwa Schizophrenie, erstaunlich gut zu erkennen. Da diese Krankheit für Psychologen extrem schwer zu diagnostizieren ist, fragt sich Dudley, wie dies möglich ist. Er weiß es noch immer nicht. Das neue Werkzeug gibt das Geheimnis nicht preis. Wenn etwas wie Deep Patient den Ärzten helfen wird, wird es idealerweise auch die Gründe für die Diagnose mitteilen, und wenn es nur darum geht zu beweisen, das es sich um eine zutreffende Analyse handelt und es eine Rechtfertigung dafür gibt, zum Beispiel die Medikamente zu wechseln. „Wir können diese Modelle bauen,“ sagt Dudley reumütig, „aber wir wissen nicht, wie sie funktionieren.“

Aber so war es nicht immer. Von der ersten Stunde an gab es zwei Denkschulen dazu, die sich uneinig darüber waren, ob Menschen die künstliche Intelligenz verstehen können sollte. Viele waren der Meinung, dass es sehr sinnvoll wäre, wenn die Maschinen sich auf Basis von Regeln und Logik erklären und rechtfertigen könnten, ihre Arbeit und Denkweise für alle transparent zu machen, die sich für den Code interessieren. Andere vertraten die Meinung, dass die Intelligenz schneller und einfacher wachsen würde, wenn sich Maschinen an der Biologie orientierten und durch Beobachtung und Erfahrung lernten. Dieses Prinzip stellte alle bisherigen Prinzipien des Programmierens auf den Kopf. Anstatt einen Programmierer die Kommandos schreiben zu lassen, die ein Problem lösten, kreiert das Programm einen eigenen Algorithmus, der auf Beispieldaten und dem gewünschten Ergebnis beruht. Die Machine-Learning-Techniken, die sich zur heute mächtigsten KI entwickelten, folgten alle dem gleichen Muster: Die Maschine programmiert sich grundsätzlich selbst.

Nächste Woche geht es weiter…

0 Kommentare

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.