Leben mit KI: Schulbank oder Sklaverei

Eine der größten Herausforderung des 21. Jahrhunderts erfordert Demut

Ein Kommentar von Benno Nieswand

In den 1990er Jahren entwickelten neuronale Netze kaum Eigenständigkeit, weshalb der Hype um sie schnell wieder verschwand. Heute, 20 Jahre später, führen Veränderungen der Modelle der neuronalen Netze („Deep Learning“) zu einer echten Annäherung von künstlicher an natürliche Intelligenz: Lern-, Speicher- und auch kreative Eigenschaften der KI eröffnen für alle Branchen völlig neue Möglichkeiten und stellen diese zugleich vor eine der größten Herausforderungen unserer Zeit.

Algorithmen und automatisierte Entscheidungen müssen transparent und nachvollziehbar sein

Fakt ist: Die Intransparenz ist nicht der Fehler der Algorithmen, sondern zurückzuführen auf fehlende menschliche Einsicht und die daraus resultierende falsche Interpretation. Es ist unsere Entscheidung, durch intensive Forschung aus den Strukturen der KI zu lernen und Rückschlüsse auf die „reale Welt“ zu ziehen, um mit eigenen neuen Ideen die Zukunft lebenswert zu gestalten. Wir können Maschinen kopieren, speichern, erweitern, wodurch Wissen nicht mehr einfach verloren geht. Wir können hineinsehen, können in Zeitlupe abbilden und untersuchen, was passiert. In ihrem Ergebnis sind diese Maschinen für uns jedoch hochgradig intransparent. Noch. Im Gegensatz zu den 1990er Jahren, in denen wir dachten, neuronale Netze seien wie ein Hologramm nur verteilte Information, erkennen wir heute, dass ihre Struktur wesentlich dedizierter ist.

Ein Beispiel: Mit sogenannten Long-Short-Term-Memory-Netzen (LSTM) lässt sich heute nach Belieben experimentieren. Im World Wide Web gibt es dazu lustige Spielereien wie: Der ganze Linux-Kernel wird als Source-Code in ein LSTM-Netz eingelernt und danach lässt man dieses Netz „zufälligen“ Code erzeugen. Zunächst sieht dieser Code völlig vernünftig aus, ist aber natürlich inhaltlich unsinnig, weil aus den Zeichenfolgen noch keine Linux-Architektur abgeleitet werden kann. Aber es kann durch Introspektion erkannt werden, dass sich einzelne Neuronen gewissen „Konzepten“ zuordnen. Da ist z. B. ein Neuron, das dafür sorgt, dass eine Zeile nicht zu lang und eine andere nicht zu kurz wird. Ein anderes „merkt“ sich ob man sich innerhalb einer Klammerebene befindet und gibt nicht eher Ruhe, bis die benötigte schließende Klammer gesetzt wird.

Es bilden sich also „Konzeptneuronen“ aus, die nun interpretiert werden müssen. Hier muss der Fokus liegen. Es benötigt ganz klar mehr Investitionen als bisher. So schwierig, wie es ist, Wissen von Experten zu extrahieren und zu formulieren, so schwierig ist dies auch bei neuronalen Netzen. Es liegt aber nahe, dass es durch weitergehende Forschung möglich ist. Wir dürfen uns nicht zurückziehen, wenn uns eine Maschine vorgesetzt wird, die uns eine Arbeit abnimmt. Wenn wir das tun, handeln wir wie die meisten Menschen, die gedankenlos ihr Handy benutzen und dabei eigentlich nur noch als manipulierbare Masse fungieren. Es ist so schön einfach und bequem – und entzieht sich unserer Einsicht und unseres Einflusses.

Wir haben die Wahl

Wir lassen die Algorithmen die Arbeit tun und (für uns) intransparent entscheiden. Damit ordnen wir uns unter in eine Welt, die wir nicht verstehen und auch nicht mehr eigenständig gestalten können. Oder wir setzen uns auf die Schulbank und lernen von der KI, damit wir von ihren Entdeckungen und Erkenntnissen profitieren. Schaffen wir Transparenz für uns selbst, erhalten wir unsere Innovationskraft. Auch wir versprechen uns von der KI wertvolle Verbesserungen für unser Produkt. Wenn wir Teilstrukturen aus der KI verstehen, können wir die Aspekte, die für Suchalgorithmen wesentlich sind, extrahieren, unsere Matching-Technologie weiter ausbauen und so die Komplexität der Konfiguration vereinfachen.