Scheinbar ist die iOS Version von Gemini einfach Dreck. Die kann nichts und die erzeugten Bilder haben die Qualität einer Smartphoneaufnahme aus den 2000ern.
Ich werde die Woche hoffentlich Zeit finden, die Desktopvariante zu testen.
Druckbare Version
Scheinbar ist die iOS Version von Gemini einfach Dreck. Die kann nichts und die erzeugten Bilder haben die Qualität einer Smartphoneaufnahme aus den 2000ern.
Ich werde die Woche hoffentlich Zeit finden, die Desktopvariante zu testen.
...
:rofl::rofl:
Das Bild von Michi beschreibt aus meiner Sicht genau das, was KI niemals können wird: Menschliche Interaktion ersetzen. Und deswegen ärgert mich im Grunde am allermeisten, dass die Debatte um die KI so wenig auf der gesellschaftlichen und philosophischen Ebene angekommen ist. Auf der politischen Ebene wird v.a. die Angst vor dem Einfluss auf den Arbeitsmarkt diskutiert, vielleicht noch ein wenig auf der regulatorischen Ebene. Aber das wars dann nach meiner Wahrnehmung auch - zumindest in der Breite. Dabei könnte da sehr viel wesentliches mal konkret diskutiert werden. Was macht denn KI mit der Gesellschaft? Wie kann ich sie im Sinne einer offenen, lebenswerten Gesellschaft einsetzen und welche "Sicherungsmechanismen" gäbe es?
Ich hab vor Kurzem mal mit einem sog. "Early Adopter" seinen mehr oder weniger bedingungslosen technologischen Positivismus folgendermaßen diskutiert: Es ist in sehr naher Zukunft sehr wahrscheinlich, dass man ein Klinikum bauen könnte, das im Grunde völlig ohne Menschen auskommt. Beim Checkin per "Gesundheitskarte" kommt das Bett automatisch fährt in die entsprechende "Abteilung" (wobei selbst die ja nicht mehr notwendig wäre). Dreimal am Tag kommt der Roboter mit dem Tablett, auf dem sich Nahrung, Medikamente und sonstige Notwendigkeiten befinden. Das automatische Bett fährt natürlich entsprechend auch zum MRT oder anderen bildgebenden Geräten, die KI analysiert zielgenau und zu 99,99% die Aufnahmen und stellt die Diagnose. Ein entsprechender Roboter übernimmt dann sehr präzise und micrometergenau einen operativen Eingriff, die Medikamente werden maximal individualisiert auf den Patienten dosiert und verabreicht und z.B. nach orthopädischen Eingriffen unterstützen elektronisch gesteuerte Geräte, die sich automatisch den physiologischen Gegebenheiten des Patienten anpassen, die Heilung bzw. Wiederherstellung.
Schöne neue Welt? Mein Kumpel fand das eine fantastische Vorstellung. Meine Prognose wäre - etliche Menschen würden dennoch keine Heilung erlangen bzw. sogar sterben (aus erst einmal vielleicht medizinisch unerklärlichen Gründen - schlag nach bei "Kaspar Hauser Versuche"). Denn es fehlt eben die menschliche Interaktion.
Das ist natürlich plakativ und wird in der Form sicher nicht passieren.
Aber da sind wir eben am Punkt: Automatisiere ich mittels KI und anderen technischen Möglichkeiten Dinge wie Medikamentenausgabe und gebe dem Pflege- und medizinischen Personal mehr Zeit, sich um die Menschen zu kümmern? Oder Werden eben immer mehr Jobs wegrationalisiert?
Allgemeiner (gesellschaftspolitisch gefragt): Werden wir in der Lage sein, diese Chance wahrzunehmen? Ich bin leider aktuell wenig optimistisch...
bei geschätzten 40000 toten im jahr,die sich aufgrund unhygienischer verhältnisse in krankenhäusern mit multiresistenten keimen infizieren,ist das quasi humanpersonal-befreite krankenhaus ein einziger segen.
keine verwechselten und danach amputierten gliedmassen mehr…keine übermüdeten operateure…keine kaum verständlichen (weil nicht deutsch-muttersprachlich…) pflegekräfte…keine assistenzärzte nach 15 stunden schicht auf speed.
dreimal am tag kommt der wischrobot vorbei…ich muss mit niemandem reden…mir keine schnippischen bemerkungen von unter burn-out leidenden kissenaufschüttlern gefallen lassen und die blutabnahme erfolgt ohne zittrige finger von lernschweter chantal-tecumseh.
her mit dem robot-krankenhaus.
und das sage ich als durchaus der KI kritisch gegenüberstehender.
Sehe ich auch so …
… zudem sollte damit auch eine Verkürzung der Wartezeiten auf Termine einhergehen.
By the way ist die persönliche Interaktion- leider - immer mehr zurückgegangen….
Sehe viele Risiken - aber das ist imho eher ne Chance, als ein Risiko.
roboclinic fände ich sehr geil.
drive-in Koloskopie - ein Traum
Die Karre wird dann gleich mit gewaschen und gesaugt
:rofl:
so…aus dem prallen leben des neuköllner underdogs…
…zu dem thema humanfaktor vs. KI….
im letzten jahr hatte ich uff‘m rechten glotzi einen sich rasch entwickelt habenden grauen star…
und während ich da unter dem laser liege und dem zertrümmern der schrottlinse vermittels laser beiwohne,höre ich den operatuer folgendes sagen…
-den hier (gemeint war ich) mache ich noch fertig und dann will ich wissen,wer gestern abend die linsen sortiert hat.
jmppf…da wird einem schon flau im magen und ich vergegenwärtige mir die friseur-szene mit peter fonda in „mein name ist nobody“.hätte ich am liebsten nachgespielt…wurscht.
ob hier eine KI, ein KI-gelenkter androide,eine linsen-sortier-drohne oder sonst eine form technischer unterstützung geholfen/etwas geändert hätte?
Aufgabe: Erstelle ein Bild mit 17 Paketen Butter auf einem Tisch.
Grok: sorry - Bilder kann ich nicht
Copilot: Erstellt ein Bild mit 18 Paketen - 3x um Korrektur gebeten - jeweils gleiches Ergebnis.
ChatGPT: Erstellt ein Bild mit 15 Paketen - Korrektur funktioniert auch nicht - die Kommunikation ist aber am besten - wenn auch ein schwacher Trost.
Insgesamt enttäuschend.
Danke für deinen Test Tobi.
Bei mir hat es - warum auch immer - nirgends geklappt.
Das ist ja auch eine bekannte Schwäche von KI-Bildgeneratoren. Kannst ja mal ChatGPT fragen, warum das so ist ;)
Hab ich - kamen nette Entschuldigungen - leider ohne zufriedenstellendes Ergebnis.
Hier die Erklärung, die ich erhalten habe:
1. Warum KI bei exakten Zahlen scheitert
Bildgeneratoren (egal ob ChatGPT, Midjourney, Copilot oder Grok) arbeiten nicht wie CAD-Programme, sondern „malen“ aus einer Wahrscheinlichkeitsverteilung heraus, wie etwas typischerweise aussieht.
Wenn man „17 Pakete Butter“ schreibt, versteht die KI das konzeptionell, aber nicht zählend.
Sie generiert ein plausibles Bild mit vielen Butterpaketen, aber hat keine echte „Zählfunktion“.
Wenn man korrigiert („bitte genau 17“), ändert sich das Bild zwar, aber die KI „rät“ wieder – sie zählt nicht visuell nach.
2. Technischer Hintergrund
Das Modell weiß, wie Butter, Pakete und Tische aussehen, aber nicht wie viele davon platziert werden müssen.
Es fehlt eine objektbasierte Kontrolle: Es „denkt“ nicht in Einheiten („Paket 1, Paket 2, ...“), sondern in Pixeln und Formen.
Selbst wenn man es perfekt promptet („17 Pakete, gleichmäßig angeordnet, klar zählbar“), kommt das Ergebnis selten exakt hin.
3. Wo es besser funktioniert
Mit text-zu-3D- oder Vektorgrafiksystemen (z. B. Blender-Add-ons, ControlNet, DALL·E mit Editor) kann man zunehmend exakte Mengen erzeugen. Oder: Man lässt sich das Bild generieren und bearbeitet manuell („entferne/füge Butterpaket hinzu“) – das klappt inzwischen recht gut.
4. Fazit
ChatGPT versteht Kontext und Korrekturwünsche. Aber bei präzisen, zählbaren Objekten versagen alle Modelle noch regelmäßig.
Es liegt nicht am „Fehlen von Intelligenz“, sondern an der Art, wie generative Modelle visuelle Konzepte darstellen – probabilistisch, nicht zählend.
Sie malt aus Gefühl, nicht aus Mathematik. Das ist der Grund, warum du heute oft noch keine exakten Mengen bekommst – aber in den nächsten 1–2 Jahren wird sich das ziemlich sicher ändern.
Vielen Dank für die Erläuterung Carlo. :gut:
Ich dachte in meiner Naivität, ChatGPT stellt sich absichtlich dumm, um…
… den Menschen die Angst vor ihr zu nehmen, indem sie sich dumm stellt.
… ein Plus Abo zu verkaufen.
Beides negierte sie btw… ;)
Kommt darauf an ob Kerrygold dafür mehr bezahlt als andere…