-
Und das ist exakt die Stelle, an der glaub ich viele aneinander vorbeireden. Kein Beispiel für das, was heute gemeint ist meines Erachtens der Taschenrechnen – denn er folgt deterministischen Regeln. Das ist eine, wenn auch sehr gut gemachte, klassische Programmierung.
Etwas anderes sind, wie ich meine, die Wahrscheinlichkeitskomponenten. Bei diesen modernen Systemen zeichnen sich nicht ausschließlich fest verdrahtete Entscheidungsbäume, sondern trainierte Modelle verantwortlich. Denn es kommt primär zu Gewichtungen in einem Modell, welches sich nicht mehr vollständig durchdringen lässt, und eben keine explizit hinterlegte Regel „wenn A dann B“. Für mich stellt das den qualitativen Unterschied dar.
Dann kann man darüber streiten, ob das schon als Intelligenz gesehen werden kann. Aber Kreativität allein würde ich nicht als Kriterium nehmen. Weil am Ende ist auch eine statistische Textzusammenfassung am Ende ein hochkomplexes Mustererkennen. Aber sie operiert eben nicht mehr rein regelbasiert.
Bei den sicherheitskritischen Umgebungen sehe ich das Problem in der fehlenden Transparenz, weil ich nicht mehr erklären kann, warum das System zu genau diesem Ergebnis kommt. Und heikel wird das meines Erachtens gerade in der Juristerei oder bei Safety-Themen: Da muss man nun mal wissen, wer die Begründungslast, wenn das Modell falsch liegt, trägt?
-
Zur Zeit kann man bei KI wohl lediglich von einer "simulierten" Intelligenz sprechen.
Analog zu einem Zufallsgenerator welcher letztlich auch nur mathematischen Algorithmen unterliegt und keine wirklich zufälligen Entscheidungen treffen kann. Beides würde ein Bewusstsein voraussetzen. Bis dahin ist es noch ein weiter Weg.
-
Habe seit heute Grok im Auto implementiert.
Ich muss schon sagen, die Art und Weise, wie dies hier von Tesla umgesetzt wurde, ist schon sehr unterhaltsam.
Man kann zwischen verschiedenen Persönlichkeitsstrukturen wählen und bekommt entsprechend auch mal witzige, schnippische, anzügliche oder sogar genervte Antworten. Die Freigabe 18+ sollte man mit Kindern an Bord vermeiden.
Zwar in D bisher noch eine Beta-Version, aber schon ein nettes Upgrade.
K.I.T.T. lässt grüßen. :supercool:
-
-
Mir ist klar, dass man KI in Zukunft nutzen muss... aber, meiner Ansicht nach, nach wie vor mit einer großen Portion Vorsicht. Kurz: Man muss jeden Fakt doppelt und dreifach selbst überprüfen.
Hier mal ein Beispiel. Es ging um die Recherche einfacher Stückzahlen per Perplexity pro. Das Resultat war fehlerhaft, was ein paar einfache Klicks schnell belegt haben.
Auf den Fehler angesprochen und wie es dazu kommen kann, kam folgende Antwort: "Weil ich ein statistisches Sprachmodell bin und kein echtes Fachinformationssystem – und genau das führt zu solchen Fehlern. Ich „erfinde“ fehlende Fakten plausibel, wenn ich sie nicht sicher weiß – das nennt man Halluzinationen: das Modell füllt Lücken mit wahrscheinlich klingenden Antworten, selbst wenn sie falsch sind."
Chat GPT antworte einmal in einem ähnlich gelagerten Fall sinngemäß (hätte gleich einen Screenshot machen sollen): "Ich bin nur ein K.I. Bot"
Was ich damit sagen will, ist, dass ich eine unreflektierte KI-Gläubigkeit schwierig finde. Das dürfte den meisten hier ähnlich gehen. Nur habe ich die Befürchtung, dass manche - vor allem jüngere - Zeitgenossen da nicht ganz so resistent sind...
KI ist nützlich und toll. Aber bitte: Augen auf. Das kann man nicht oft genug sagen...