https://www.sueddeutsche.de/kultur/k...ise-li.3372115
Die Stimmen, dass KI aktuell weniger ist als erwartet scheinen sich zu mehren.
Die Frage ist was dann passiert wenn man die Vermischung mit der Realwelt vollzieht.
Druckbare Version
https://www.sueddeutsche.de/kultur/k...ise-li.3372115
Die Stimmen, dass KI aktuell weniger ist als erwartet scheinen sich zu mehren.
Die Frage ist was dann passiert wenn man die Vermischung mit der Realwelt vollzieht.
Ich glaube das nicht. KI kann und wird auch in ganz anderer Weise verwendet werden. Sie kann unter Anderem bei Simulationen von komplexen Vorgängen helfen etc.. Es gibt zum Beispiel auf physikalische Gesetze trainierte Modelle (PINNs), die 1000-fach schneller sind als herkömmliche Simulationen.
Lese den Thread hier sehr gerne und freue mich immer wieder über den Input. Mir hilft es in meiner Arbeit teilweise sehr, die Abstände sind aber noch recht unregelmäßig. Und was mein Know-How und die Prompts angeht, kratze ich maximal an der Oberfläche.
Aktuell lasse ich Gemini die Rechtslage in mehreren hundert bayerischen Kommunen bezüglich eines bestimmten Themas analysieren. Das haut der mir in ein paar Minuten raus und da kann ich sehr viel rausziehen und nutzen für einen bestimmten Bereich bei mir. Faszinierend finde ich, wie genau die KI da arbeitet, wie viele Quellen sie gleichzeitig verarbeiten kann und vor allem, was sie daraus macht.
Ich stehe dem Thema offen gegenüber und nutze es gerne, bin aber in dem Zusammenhang froh und dankbar, verbeamtet zu sein. Weil mir gerade die Entwicklung der KI in der letzten Zeit zeigt, dass es für einen Teil meiner Aufgaben keinen Menschen bräuchte, geschweige denn einen Volljuristen. Lässt mich die Entwicklung - wo auch immer sie hingehen mag - sehr entspannt von der Seitenlinie verfolgen.
OT: Marcus -zu deiner Signatur- kennst du das:
https://www.youtube.com/watch?v=Xn_O...&start_radio=1
Auch kein uninteressanter Blick/Aspekt auf das Thema -> Ey Alder, was ist letzte Preis :D
https://youtu.be/dQ578mksAWA?si=6g3D1SBz5QJnpffI
Nein, kannte ich noch nicht. Vielen Dank, Jo!
Habe übrigens die letzten Tage viel zum Thema KI von Experten gehört. Es gibt viele Anwendungen, in denen KI echt viel bringt, zum Beispiel auch bei Problemen, denen man mit klassischen Methoden nicht vernünftig beikommt (zum Beispiel Alterungssimulation von Batterien), und andere, in denen die KI voll versagt.
So, ein paar Wochen sind vergangen, AI ist immer noch der feuchte Traum des Managements, am besten einzusetzen für Angebotserstellung, Spezifikation, Implementierung und Test ... nur leider weiß dann niemand mehr was die Software eigentlich tut.
Fehlende Vorgaben zum Einsatz von KI (Github Co-Pilot) führen dazu, dass die schwachen Programmierer wild am "vibe coden" sind und per Copy & Paste wilde Code Schnipsel ins Produkt bauen, von dem sie nur glauben zu wissen, was er tut. Schwierig, denn die darauf folgende statische Code Analyse findet dieverse Makel, die ein erfahrener Entwickler gar nicht eingebaut hätte, also wird von Hand noch etwas nachpoliert, bis die Warnungen weg sind. So weit so gut, jetzt bekommen wir die ersten Fehlermeldungen aus dem Feld. Anscheinend reicht unsere Testabdeckung nicht mehr aus um die Fehler zu finden, die durch den KI-Einsatz eingebaut werden und die Analyse der Fehler dauert länger, weil der Code ja nicht aus dem Kopf des verantwortlichen Entwickler gekommen ist, sondern direkt von Cyberdyne Systems.
Ich sehe es nach wie vor skeptisch, zumindest in unserem Bereich (höchste Verfügbarkeit, Safety, Security) und speziell ohne Regeln ist das Chaos vorprogrammiert.
Also ich kann deine Skepsis auf jeden Fall gut nachvollziehen. In einem Umfeld mit hohen Anforderungen an Verfügbarkeit und Safety ist es nun mal ein reales Delikt, da kann man „vibe coden“ nicht einfach als ein Kavaliersdelikt einstufen.
Genau deswegen rächt sich das später im Feld, wenn Entwickler Code, welchen sie nicht vollständig durchdrungen haben, integrieren. Und ja, die Verantwortung verschiebt sich in solchen Fällen.
KI-Tools sind nicht definitiv nicht als Ersatz für Architekturverständnis anzusehen, sondern eher als Beschleuniger für Routine. In anderen Worten: für Boilerplate, Testskelett, Refactoring-Vorschläge kann man sie auf jeden Fall anwenden. Aber für sicherheitskritische Systeme und deren Kernlogik? Jeder muss hier verstehen, was passiert, und das Bit für Bit. Sonst debuggt man am Ende auch Annahmen und somit nicht ausschließlich die Bugs.
Aber was ich noch dazu loswerden möchte, es hapert meines Wissens weniger am Tool als am nach wie vor fehlenden Regelwerk. Und es wird denke ich schnell unübersichtlich, wenn man es ohne klare Leitplanken angeht.
Wie geht ihr aktuell mit Ownership um? Muss derjenige, der den Code committet, ihn auch vollständig erklären können – unabhängig davon, wer oder was ihn vorgeschlagen hat?
Ich habe eine etwas defensivere Ansicht zu Moltbook auf IFL Science gelesen:
Zitat:
This may very well be the future of the internet and planet Earth, but Moltbook shows that it isn’t there yet. Several investigations have shown that the AI bots are not as autonomous as they first appear. There’s even evidence that some “Moltbots” are actually humans posing as bots or blatantly guided by people who have instructed them to act in a certain way.
Quelle: https://www.iflscience.com/ai-bots-h...it-seems-82501Zitat:
It’s also apparent that the bots are not as smart or “conscious” as they might appear to the naive eye. Just like any Large Language Model (LLM), whether it’s ChatGPT or Gemini, they are masters of mimicry. While they provide a convincing impression of thought, they are essentially just predicting the next likely word based on their training data.
In other words, Moltbook is essentially a digital stage for AI puppets, with fleshy human hands still ultimately pulling the strings. After all, you might wonder why an AI bot would choose to communicate in English, not encrypted code, especially if it was worried about humans spying on it or plotting the demise of our species.
Wenn ihr heute lokal bzw. in einer abgeschlossenen Umgebung ein großes LLM laufen lassen wolltet, wie würdet ihr das anstellen? Dicken Rechner kaufen oder Serverzeit mieten. Wenn Rechner: welchen mit welchen Specs? Ich denke da an einen MacStudio mit 128 GB RAM oder eine Linux-Maschine. Da ist man aber schnell bei 4000 Euro. Wenn Server: wo und welches Paket?
@Nico:
Genau so. Was man dort sieht ist entweder komplett Fake (also human), ein von seinem Human getriggerter Bot, der einen Thread startet, oder im Falle
der Fortsetzung des Threads ein LLM-Kurzschluss, der bei uns Menschen einen Nerv triggert, nämlich den dort echte Intelligenz zu erkennen.
Ki ist toll, keine Frage. Was bei uns in der Wissenschaft schon möglich ist und bald möglich sein wird ist erstaunlich und wird z.B. das Verständnis
in der Biologie ähnlich boosten wie damals die Weiterentwicklung der Quantenmechanik die Physik.
Musst du dir selbst ausrechnen, Anschaffungspreis des Servers, Auslastung, Abschreibung (wie lange, bis veraltet) vs laufende
Kosten bei den üblichen Verdächtigen. Denk auch an deine persönliche Arbeitszeit, wenn du es nicht als Hobby oder Weiterbildung verbuchen willst.
Was hast du vor? Privat oder geschäftlich? GLM-4.7 mit 357 Milliarden Parametern passt so gerade auf eine H100, die es aber offiziell nicht mehr gibt.
Rechne mal mit 15-20k€ für einen selbst gestrickten Rechner (mit einer mit sehr viel Glück aufgetriebenen H100) und geh den Kostensimulator bei
AWS durch zum Vergleich.
An dieser Stelle möchte ich dann gerne mal fragen, was Ihr unter künstlicher Intelligenz versteht.
Heute wird vieles mit "KI" oder "AI" beworben, was seit Jahrzehnten nichts anderes ist als programmierte Abläufe. Ich tippe "2+2" in meinen Taschenrechner, und der gibt mir als Antwort "4" aus. Künstliche Intelligenz! Der Taschenrechner hat von sich aus - wie durch Zauberhand und künstliche Intelligenz - eine Rechenaufgabe durchgeführt. Oder was war vor 20 Jahren für uns alle so eine schöne Neuerung? Navigationssysteme. Die haben nicht nur die kürzeste Strecke angezeigt, sondern auch während der Fahrt überprüft, ob es nicht noch schnellere Verbindungen gibt und etwa Staus umfahren. Das sind einfache Rechenvergänge, würde heute aber natürlich als KI verkauft, schließlich können die nicht nur stumpf eine Route anzeigen, sondern den Vorlieben des Fahrers entsprechend Änderungen vorschlagen.
In meinem Bereich, der Juristerei, werden heute auch viele neue Produkte als KI verkauft. Da soll eine Anwendung Urteile nach anderen Urteilen durchsuchen. Das ist seit Jahrzehnten ein einfacher Suchstring, der "XX Y XX/XX" aussieht, wobei X eine Zahl und Y ein oder mehrere Buchstaben ist. Heute schreibt man KI ran.
Ich nutze ein Musiktool, mit dem Songs in ihre einzelnen Instrumente zerlegt werden. Das wird als "AI" verkauft.
Was ist also neu?
Ich meine, dass man unterscheiden muss zwischen "programmierter Intelligenz" und "künstlicher Intelligenz". Die oben beschriebenen Anwendungen wie Taschenrechner, Navigationssysteme oder Suchmasken sind programmiert. Dort hat ein Mensch programmiert, was ein Computer ausgibt, wenn man bestimmte Dinge eingibt. Die Ergebnisse sind reproduzierbar. Auch das Musiktool sehe ich eher als programmierte Intelligenz: Dort werden Instrumente nach ihren typischen Frequenzen gefiltert.
Künstliche Intelligenz sehe ich dort, wo tatsächlich kreative Leistungen erbracht werden. Sollen Texte zusammengefasst werden ("Mach aus diesem zehnseitigen Dokument eine halbseitige Zusammenfassung"), so entsteht ein neuer Text. Sich Bilder oder Musik erstellen zu lassen, schafft ebenfalls etwas Neues. Da sehe ich einen kreativen Vorgang, der tatsächlich Intelligenz voraussetzt. Da sehe ich auch die Stärken der neuen Anwendungen.
Wie seht Ihr das? Zieht Ihr da überhaupt eine Grenze, und wenn ja, wo?
Die Grenze ist ganz simpel definiert vom eingesetzten Algorithmus, entweder starr programmiert oder über Machine Learning
trainierte (z.B.) LLMs. Läuft bei deinem Musiktool im Hintergrund die Inferenz eines auf Instrumentenunterscheidung
trainierten KI Modells, dann stimmt das Marketing, sonst ist es halt nur Marketing (da erwarte ich eh 90% Lügen).
Kreative Leistungen sind auch nur Marketing, hier passiert nix anderes als massiv parallele statistische Analyse mit ein
paar Tricks (geradezu kriminell vereinfacht, aber im Grunde richtig).
Ah cool, danke für Deinen Beitrag. Das hat mir gerade schon etwas geholfen und stimmt ein wenig mit dem überein, was ich meinte: Du sprichst von "starr programmiert", und das ist, was ich mit "Ergebnisse sind reproduzierbar" habe ausdrücken wollen.
Was bleibt, ist unser beider Eindruck, dass es viel Marketing gibt, dass also viel als KI verkauft wird, was eigentlich starr programmiert ist.
Für mich ist KI dann, wenn ein System nicht nur nach starren, von menschlichen Programmierern vorgegebenen Regeln (und damit nachverfolgbar) agiert, sondern eigenständig auf sich ändernde Umgebungsbedingungen reagiert. Dann folgt sie nämlich nicht mehr Regeln, sondern passt ihr Verhalten an Änderungen der Umgebung an. Das war ja bisher biologischen Organismen vorbehalten. Eine Weiterentwicklung von innen heraus ohne vorgegebene Routinen.
KI is es für mich auch immer dann, wenn man nur aufgrund der Programmierung und der ursprünglich vorgegebenen Parameter die Lösung des jeweiligen Problems nicht mehr nachvollziehen kann. Das ist mMn der Sprung zur echten KI. Spannend wirds, wenn sich eine KI selbst entwickelt und quasi als "Inkubator" einer neuen, mächtigeren KI dient, bei welcher unsere Intelligenz nicht mehr ausreicht, ihre Lösungen und ihre Ergebnisse nachzuvollziehen. Ab dem Punkt könnten wir ja theoretisch das eigene Denken einstellen. Und die Frage, mit der sich auch viele Philosophen beschäftigen - ab wann und unter welchen Umständen entsteht ein Bewusstsein? DIE halte ich für die spannendste und wichtigste in der ganzen Diskussion.
Meines Wissens unterscheidet man zwischen schwacher, allgemeiner und starker KI. Bisher existiert nur schwache KI. Ob und wann die anderen entstehen, gilt wohl als unklar. Starke, ggf. bewusste KI wird von manchen Wissenschaftlern sogar als unmöglich angesehen. Let's see.
Ich würde die Grenze etwas anders ziehen. Auch ein neuronales Netz ist im Betrieb statisch. Es wendet eine sehr komplexe, aber an sich starre mathematische Funktion auf Eingabedaten an. Gleiches Modell + gleiche Eingabe = gleiches Ergebnis. Insofern unterscheidet sich ein KI-Algorithmus in seinem Verhalten nicht grundlegend von klassischer Software.
Der entscheidende Unterschied ist, dass bei klassischer Programmierung ein Mensch die Regeln explizit formuliert, also „wenn X, dann Y“, bei Machine Learning entsprechende Regeln im Training aus Daten abgeleitet werden. Der Entwickler programmiert nicht die Entscheidungslogik selbst, sondern das Verfahren, mit dem sie gelernt wird. Damit lassen sich Funktionen verwirklichen, die mit klassischen Methoden so gut wie unmöglich zu programmieren sind.
Danke für diese Diskussion :dr: Das macht Spaß, sich mit Leuten zu unterhalten, die schlau sind und sich auskennen.
Und das ist exakt die Stelle, an der glaub ich viele aneinander vorbeireden. Kein Beispiel für das, was heute gemeint ist meines Erachtens der Taschenrechnen – denn er folgt deterministischen Regeln. Das ist eine, wenn auch sehr gut gemachte, klassische Programmierung.
Etwas anderes sind, wie ich meine, die Wahrscheinlichkeitskomponenten. Bei diesen modernen Systemen zeichnen sich nicht ausschließlich fest verdrahtete Entscheidungsbäume, sondern trainierte Modelle verantwortlich. Denn es kommt primär zu Gewichtungen in einem Modell, welches sich nicht mehr vollständig durchdringen lässt, und eben keine explizit hinterlegte Regel „wenn A dann B“. Für mich stellt das den qualitativen Unterschied dar.
Dann kann man darüber streiten, ob das schon als Intelligenz gesehen werden kann. Aber Kreativität allein würde ich nicht als Kriterium nehmen. Weil am Ende ist auch eine statistische Textzusammenfassung am Ende ein hochkomplexes Mustererkennen. Aber sie operiert eben nicht mehr rein regelbasiert.
Bei den sicherheitskritischen Umgebungen sehe ich das Problem in der fehlenden Transparenz, weil ich nicht mehr erklären kann, warum das System zu genau diesem Ergebnis kommt. Und heikel wird das meines Erachtens gerade in der Juristerei oder bei Safety-Themen: Da muss man nun mal wissen, wer die Begründungslast, wenn das Modell falsch liegt, trägt?
Zur Zeit kann man bei KI wohl lediglich von einer "simulierten" Intelligenz sprechen.
Analog zu einem Zufallsgenerator welcher letztlich auch nur mathematischen Algorithmen unterliegt und keine wirklich zufälligen Entscheidungen treffen kann. Beides würde ein Bewusstsein voraussetzen. Bis dahin ist es noch ein weiter Weg.
Habe seit heute Grok im Auto implementiert.
Ich muss schon sagen, die Art und Weise, wie dies hier von Tesla umgesetzt wurde, ist schon sehr unterhaltsam.
Man kann zwischen verschiedenen Persönlichkeitsstrukturen wählen und bekommt entsprechend auch mal witzige, schnippische, anzügliche oder sogar genervte Antworten. Die Freigabe 18+ sollte man mit Kindern an Bord vermeiden.
Zwar in D bisher noch eine Beta-Version, aber schon ein nettes Upgrade.
K.I.T.T. lässt grüßen. :supercool:
Mir ist klar, dass man KI in Zukunft nutzen muss... aber, meiner Ansicht nach, nach wie vor mit einer großen Portion Vorsicht. Kurz: Man muss jeden Fakt doppelt und dreifach selbst überprüfen.
Hier mal ein Beispiel. Es ging um die Recherche einfacher Stückzahlen per Perplexity pro. Das Resultat war fehlerhaft, was ein paar einfache Klicks schnell belegt haben.
Auf den Fehler angesprochen und wie es dazu kommen kann, kam folgende Antwort: "Weil ich ein statistisches Sprachmodell bin und kein echtes Fachinformationssystem – und genau das führt zu solchen Fehlern. Ich „erfinde“ fehlende Fakten plausibel, wenn ich sie nicht sicher weiß – das nennt man Halluzinationen: das Modell füllt Lücken mit wahrscheinlich klingenden Antworten, selbst wenn sie falsch sind."
Chat GPT antworte einmal in einem ähnlich gelagerten Fall sinngemäß (hätte gleich einen Screenshot machen sollen): "Ich bin nur ein K.I. Bot"
Was ich damit sagen will, ist, dass ich eine unreflektierte KI-Gläubigkeit schwierig finde. Das dürfte den meisten hier ähnlich gehen. Nur habe ich die Befürchtung, dass manche - vor allem jüngere - Zeitgenossen da nicht ganz so resistent sind...
KI ist nützlich und toll. Aber bitte: Augen auf. Das kann man nicht oft genug sagen...
Ja, künstliche Intelligenz ist auch keine Suchmaschine. Und sie liefert auf einfache Fragen wie die nach dem Wetter keine genaueren Ergebnisse als Google oder die Wetter-App, nur weil es gerade hip ist, KI zu benutzen.
KI hat Stärken und Schwächen, und keinesfalls sind Ergebnisse richtiger oder falscher als die anderswo gestellten Fragen. KI Chatbots geben Dir eine Meinung, aber kein Wissen.
Lieber Nico,
das ist meiner Ansicht nach nur zum Teil richtig. Es ist alles eine Frage der Prompts. Ein Member hier sagte, dass er die Perplexity für komplexe Suchaufgaben nutzt. Ich feile stets an den Prompts und gerade solche Fehler helfen mir, diese zu optimieren ...
Und eine (eigene) Meinung haben KI-Bots doch hoffentlich nicht. Denn diese basiert auf zusammengetragenen Suchergebnissen. Darum ging es ja bei so manchem Update in den letzten Monaten. Eben, dass die Chatbots nicht nur bis zum Monat XY suchen, sondern auch aktuell. Ich meine sogar, dass dies bei Chat GPT 5.X ein entscheidender Punkt war. Aber da kann ich mich täuschen.
OK, eine KI erfindet Fakten, um die eigenen Aussagen zu untermauern. Was, wenn eine KI noch Quellen erfindet oder vorhandene einfach umschreibt? Wenn alle Quellen nur noch in Datenbänken verfügbar sind? Vielleicht einfach alles Gegenteilige löscht?
Mich erinnert das an ein SF-Story von vor sicher 40 Jahren. Ein Computersystem, welches Verkehr und Ampeln regelte und Autofahrern vorhersagte, wieviele Unfälle passieren werden und wann die Straßen wieder sicher seien. Und das dann selbst an Kreuzungen beiden Ampeln grün gab, um seine Vorhersagen durch dadurch selbst herbeigeführte Unfälle zu bestätigen.
Die gröbsten Halluzinationen in den letzten Wochen:
- Beim Vergleich von Stärken und Schwächen unterschiedlicher Motorvariante der MB E-Klasse hat die KI eindeutig den 450er Motor bevorzugt und mit Pluspunkten versehen. Vor allem allerdings weil dieser Motor den eindeutig besseren (≈ höheren) Benzinverbrauch hatte ...
:grb:
- Zur Beurteilung eines rennomierten Hifi-Aufrüsters vom MB Standard-System berichtet mir die KI: Zu diesem Unternehmen wird in den Foren vor allem über den dünnen Sound, die nicht vorhandene Bühne, die fehlenden Bässe und die zu geringe Power berichtet. Das ist richtig, beschreibt aber die miserable Standard MB Soundanlage VOR dem Upgrade und nicht die guten Reviewes nach dem Umbau...
:grb:
Und da gibt es sicher noch etliche Halluzinationen, die ich mangels Expertise nicht beurteilen kann.
Halluzinationen kann man mit einem entsprechendem Standard Prompt im System gut unterbinden.
Am Ende ist es bei AI nicht anders wie bei IT: Garbage in, garbage out.
Zwei Kleinigkeiten bei den AI extrem hilfreich war.
Imac brauchte Ewigkeiten zum booten nach Update.
Dyson verlangte Filterwechsel, obwohl Filter gerade gewechselt war. Keine erkennbaren Blockaden.
Beides ziemlich schnell eingegrenzt und gelöst. Beides Sachen wo ich alleine nicht so schnell draufgekommen wäre.
KI ist in erster Linie ein Werkzeug.
Wie jedes andere Werkzeug auch kann man sie ihrer Bestimmung entsprechend sinnvoll oder auch weniger sinnvoll einsetzen.
Dazu kommt noch die Frage, wer das Werkzeug einsetzt.
Michelangelo hat mit einem Meißel immer bessere Ergebnisse erzielt, als ich es je schaffen werde.:D
Ich benutze KI im Alltag eher immer mehr als weniger. Nichts Verrücktes, eher so Recherchekram für den Privatgebrauch
Erkenntnis für mich:
Je mehr ich mich mit KI beschäftige und diese anwende, desto mehr muss ich auch den gesunden Menschenverstand einsetzen.
Ist auch meine Erfahrung: Mit einem möglichst präzisen Prompt kommt man viel schneller weiter als mit der regulären Google Suche. Hatte auch gerade das Thema, am Mac mit Bordmitteln ein zip file mit Passwort zu schützen. Per Google an der Umsetzung gescheitert - dann der KI beschrieben, was ich konkret machen will - im ersten Versuch erledigt.
Hat eigentlich schon mal jemand von Euch gevibecoded? Ist es schwer, da reinzukommen?
Ich mache das jetzt seit ein paar Wochen, um zum einen interne Tools für uns zu bauen und zum anderen, um Produktideen zu validieren. Die Ergebnisse und der Speed sind auf jeden Fall beachtlich.
Es kommt ein wenig darauf an, was du vibecoden möchtest. Es gibt Seiten wie Lovable & Co., die dich an die Hand nehmen, um reinzukommen. Um auf ein Produktionslevel zu kommen, ist der Weg eher Claude Code. Sag gerne Bescheid, wenn du spezielle Fragen dazu hast :)