So, ein paar Wochen sind vergangen, AI ist immer noch der feuchte Traum des Managements, am besten einzusetzen für Angebotserstellung, Spezifikation, Implementierung und Test ... nur leider weiß dann niemand mehr was die Software eigentlich tut.
Fehlende Vorgaben zum Einsatz von KI (Github Co-Pilot) führen dazu, dass die schwachen Programmierer wild am "vibe coden" sind und per Copy & Paste wilde Code Schnipsel ins Produkt bauen, von dem sie nur glauben zu wissen, was er tut. Schwierig, denn die darauf folgende statische Code Analyse findet dieverse Makel, die ein erfahrener Entwickler gar nicht eingebaut hätte, also wird von Hand noch etwas nachpoliert, bis die Warnungen weg sind. So weit so gut, jetzt bekommen wir die ersten Fehlermeldungen aus dem Feld. Anscheinend reicht unsere Testabdeckung nicht mehr aus um die Fehler zu finden, die durch den KI-Einsatz eingebaut werden und die Analyse der Fehler dauert länger, weil der Code ja nicht aus dem Kopf des verantwortlichen Entwickler gekommen ist, sondern direkt von Cyberdyne Systems.

Ich sehe es nach wie vor skeptisch, zumindest in unserem Bereich (höchste Verfügbarkeit, Safety, Security) und speziell ohne Regeln ist das Chaos vorprogrammiert.