Und das ist exakt die Stelle, an der glaub ich viele aneinander vorbeireden. Kein Beispiel für das, was heute gemeint ist meines Erachtens der Taschenrechnen – denn er folgt deterministischen Regeln. Das ist eine, wenn auch sehr gut gemachte, klassische Programmierung.

Etwas anderes sind, wie ich meine, die Wahrscheinlichkeitskomponenten. Bei diesen modernen Systemen zeichnen sich nicht ausschließlich fest verdrahtete Entscheidungsbäume, sondern trainierte Modelle verantwortlich. Denn es kommt primär zu Gewichtungen in einem Modell, welches sich nicht mehr vollständig durchdringen lässt, und eben keine explizit hinterlegte Regel „wenn A dann B“. Für mich stellt das den qualitativen Unterschied dar.

Dann kann man darüber streiten, ob das schon als Intelligenz gesehen werden kann. Aber Kreativität allein würde ich nicht als Kriterium nehmen. Weil am Ende ist auch eine statistische Textzusammenfassung am Ende ein hochkomplexes Mustererkennen. Aber sie operiert eben nicht mehr rein regelbasiert.

Bei den sicherheitskritischen Umgebungen sehe ich das Problem in der fehlenden Transparenz, weil ich nicht mehr erklären kann, warum das System zu genau diesem Ergebnis kommt. Und heikel wird das meines Erachtens gerade in der Juristerei oder bei Safety-Themen: Da muss man nun mal wissen, wer die Begründungslast, wenn das Modell falsch liegt, trägt?