Mir ist klar, dass man KI in Zukunft nutzen muss... aber, meiner Ansicht nach, nach wie vor mit einer großen Portion Vorsicht. Kurz: Man muss jeden Fakt doppelt und dreifach selbst überprüfen.

Hier mal ein Beispiel. Es ging um die Recherche einfacher Stückzahlen per Perplexity pro. Das Resultat war fehlerhaft, was ein paar einfache Klicks schnell belegt haben.

Auf den Fehler angesprochen und wie es dazu kommen kann, kam folgende Antwort: "Weil ich ein statistisches Sprachmodell bin und kein echtes Fachinformationssystem – und genau das führt zu solchen Fehlern. Ich „erfinde“ fehlende Fakten plausibel, wenn ich sie nicht sicher weiß – das nennt man Halluzinationen: das Modell füllt Lücken mit wahrscheinlich klingenden Antworten, selbst wenn sie falsch sind."


Chat GPT antworte einmal in einem ähnlich gelagerten Fall sinngemäß (hätte gleich einen Screenshot machen sollen): "Ich bin nur ein K.I. Bot"

Was ich damit sagen will, ist, dass ich eine unreflektierte KI-Gläubigkeit schwierig finde. Das dürfte den meisten hier ähnlich gehen. Nur habe ich die Befürchtung, dass manche - vor allem jüngere - Zeitgenossen da nicht ganz so resistent sind...

KI ist nützlich und toll. Aber bitte: Augen auf. Das kann man nicht oft genug sagen...