Einmal habe ich eine Aufgabe formuliert. ChatGPT hat mir eine Lösung ausgespuckt. Ich war nicht zufrieden. Ich habe dann die Aufgabe spezifiziert und wieder um eine Lösung gebeten. Dann kam eine neue Lösung, die trotzdem nicht ganz das machte, was ich will. Als ich dann wieder spezifiziert habe, hat er mir die Lösung von vorhin gezeigt. Ich hatte das gefühl, wir drehen uns im Kreis.
So im Sinne von:
ChatGPT, gib mir ein rundes Obst
- Hier ein Apfel
Nein, ich möchte keinen Apfel, gib mir was anderes
- Hier ein Pfirsich
Nein, auch keine Pfirsich
- Hier ein Apfel
Eigentlich dachte ich, sowas könnte nicht vorkommen, weil er sich alle Zwischenstände merkt und sich immer was neues "ausdenkt".
Aber die Erfahrung hab ich nicht gemacht. Irgendwann steckten wir in einer Schleife fest und ich habe gemerkt, dass er nicht mehr weiter weiss.