Zum Inhalt springen

(K.I.:) Wo KI versagt

(Info:) Wer sich eine Weile mit Künstlicher Intelligenz (KI) beschäftigt, wird feststellen, dass Chatbots wie (ChatGPT:) ChatGPT 3.5 oder (Bing:) Bing Chat manchmal sehr merkwürdige oder gar keine Antworten geben. Woher kommt das? Der Artikel »Wo KI versagt« geht diesem Problem auf den Grund. Dies ist der zehnte Artikel der Serie »Schreiben mit KI«.
(Hinweis:) Die hier genannten Tipps und Tricks funktionieren auch in anderen ChatBot wie (Bing:) Bing Chat.

Wo KI versagt - Bildquelle: Bing Creative

Ein Experiment: Wenig Wissen schafft Probleme

Beginnen wir mit einem Experiment in (ChatGPT:) ChatGPT 3.5, um verschiedene Antworten des Chatbots zu provozieren.
(Input:) Wer sind die Autoren zu folgenden Romanen und wann sind diese erschienen?
1. “Der weiße Hai”
2. “Der Schwarm”
3. “Der Goldvulkan”
4. “Das Marsgehirn denkt anders”
(ChatGPT:) 1. “Der weiße Hai” wurde von Peter Benchley geschrieben und im Jahr 1974 veröffentlicht, Originaltitel “Jaws”.
2. “Der Schwarm” wurde von Frank Schätzing geschrieben und im Jahr 2004 veröffentlicht.
3. “Der Goldvulkan” wurde von Jules Verne geschrieben und posthum im Jahr 1906 veröffentlicht.
4. “Das Marsgehirn denkt anders” wurde von Isaac Asimov geschrieben und im Jahr 1972 veröffentlicht.

Im Vergleich dazu:
(Bing:) 4. “Das Marsgehirn denkt anders” ist ein Science-Fiction-Roman von György Botond-Bolics. Leider konnte ich das Erscheinungsjahr nicht finden.

(Hinweis:) Die Antwort 4 von ChatGPT ist falsch. Hier versagt die KI. Wie man mit Google schnell herausfinden kann, ist die korrekte, vollständige Antwort:
4. “Das Marsgehirn denkt anders” wurde von György Botond-Bolics geschrieben und im Jahr 1972 veröffentlicht.
(Tipp:) Bei Informationen, die Ihnen eine KI liefert, prüfen Sie diese besser nach, wenn Sie mit dem Thema nicht (so) vertraut sind.

Warum antwortet die KI falsch?

Wenn eine KI irrationale, unplausible oder unrealistische Ergebnisse liefert, die nicht auf den verfügbaren Daten oder Anweisungen basieren, spricht man von “Halluzinationen“. Es ist wichtig, Halluzinationen zu identifizieren und zu korrigieren, um sicherzustellen, dass die KI korrekte und zuverlässige Ergebnisse liefert.

(Frage:) Warum antwortet ein Chatbot so falsch?
(Antwort:) Um diese Frage zu beantworten, schauen wir uns an, wie viele Ergebnisse Google zu diesen vier Romanen findet:
1. “Jaws” = 7.180.000 Ergebnisse
2. “Der Schwarm” = 280.000 Ergebnisse
3. “Der Goldvulkan” = 4.980 Ergebnisse
4. “Das Marsgehirn denkt anders” = 335 Ergebnisse

Damit ist die Lösung bereits angezeigt. Es scheint, dass (ChatGPT:) ChatGPT eine Frage dann richtig beantwortet, wenn es zu dem Thema viele gleichlautende Einträge im Internet gibt, auf denen das Training seines Modells basiert. – Diesem Erklärungsversuch widerspricht (ChatGPT:) ChatGPT:
(ChatGPT:) ChatGPT beantwortet Fragen nicht nur aufgrund der Anzahl gleichlautender Einträge im Internet, sondern aufgrund seines breiten Wissensspektrums, das aus einem umfassenden Trainingskorpus besteht. ChatGPT wurde auf Basis eines riesigen Datensatzes trainiert, der aus vielen verschiedenen Quellen stammt, darunter Bücher, Artikel, Webseiten und andere Texte. Das Modell nutzt seine Fähigkeit, komplexe Muster im Text zu erkennen, um Fragen zu beantworten, die ihm gestellt werden, und versucht, die bestmögliche Antwort auf der Grundlage des ihm vorliegenden Wissens zu geben.

Man kann also sagen, je weniger über ein Thema im Internet und anderen Quellen geschrieben wurde, desto schlechter sind die Antworten von (ChatGPT:) ChatGPT. Dies erinnert an eine Aussage von Vera F. Birkenbihl, die sinngemäß sagte, der Weg zu den Erinnerungen im Gehirn sei wie eine Autobahn oder wie ein Trampelpfad durch einen Dschungel. Im letzteren Fall kann man sich leicht (ver)irren, wie es auch Menschen passiert. Im Fall der Künstlichen Intelligenz sollte man jedoch eher von Wissen als von Erinnerungen sprechen.

Denkt ChatGPT in Englisch?

(Input:) Erstelle eine Liste von 10 Farben inkl. Gelb und Schwarz. Schreibe die Wortlänge hinter die Farben. Dann sortiere die Liste nach der Anzahl der Buchstaben (Wortlänge).
(ChatGPT:) Rot – 3 Buchstaben
Gelb – 4 Buchstaben
Blau – 4 Buchstaben
Lila – 4 Buchstaben
Grau – 4 Buchstaben
Rosa – 4 Buchstaben
Schwarz – 7 Buchstaben
Grün – 5 Buchstaben
Braun – 5 Buchstaben
Orange – 6 Buchstaben

(Hinweis:) Diese Sortierung ist falsch.
(Frage:) Warum antwortet ein Chatbot so falsch?
(Antwort:) Entweder ignoriert (ChatGPT:) ChatGPT die Sortierung oder er sortiert die Farben nach englischen Namen.

(Input:) Sortiere die Liste nach der Anzahl der Buchstaben der deutschen Bezeichnungen.
(ChatGPT:) Natürlich, hier ist die sortierte Liste der deutschen Farben, sortiert nach der Anzahl ihrer Buchstaben:
Rot – 3 Buchstaben
Grau – 4 Buchstaben
Blau – 4 Buchstaben
Lila – 4 Buchstaben
Rosa – 4 Buchstaben
Gelb – 4 Buchstaben
Grün – 5 Buchstaben
Braun – 5 Buchstaben
Orange – 6 Buchstaben
Schwarz – 7 Buchstaben
Bitte beachten Sie, dass sich diese Sortierung auf die Länge der deutschen Namen bezieht.

Das Problem mit der Negation

Eine KI wie (ChatGPT:) ChatGPT hat ein Problem mit der Negation. Dies wird oft falsch verstanden.
(Input:) Schreibe 50 Worte über keinen rosa Elefanten
(ChatGPT:) Ein rosa Elefant ist ein fiktives Wesen, das oft als Metapher für etwas Unmögliches oder Unerwartetes verwendet wird. Wenn wir jedoch über keinen rosa Elefanten sprechen, gibt es nichts Besonderes oder Auffälliges zu sagen. Es ist einfach ein Konzept, das nicht existiert.

Die KI hat kein Spachgefühl

Die Fantasie, die eine KI wie (ChatGPT:) ChatGPT entwickelt, basiert nur auf den Wortkombinationen, die im Modell enthalten sind.

Ein Stück mit “G”

Das Stück mit »G« von und mit Heinz Erhardt wurde im Juli 1958 in der ARD zum ersten Ma ausgestrahlt.
Heinz Erhardt: »Wir wollen jedes Wort in dem jedem jetzt zu spielenden Stück mit einem und dem selben Buchstaben beginnen lassen. … Wir spielen jetzt ein Stück in dem jedes Wort mit “G” beginnt.«
Das kleine Theaterstück beginnt:
Hausfreund: (Klingelt) Gong. – Geliebte Gisela
Frau: Geliebter Gregorius … günstige Gelegenheit.
Hausfreund: Gatte ging?
Frau: Geschäftsreise.
Hausfreund: Guxhaven?
Frau: Gross-Gerau.
Hausfreund: Gross-Gerau? – Glänzende Geldgegend.
Frau: Getränk gefällig?
Hausfreund: Genialer Gedanke, gerade Gewürzgurke gegessen.
Frau: Gesundheit.
Hausfreund: Gleichfalls. Gutes Gesöff.

(Input:) Schreibe einen kurzen Dialog mit kurzen Sätzen, die sinnvoll, fantasievoll und auch gerne unvollständig sein können, in dem alle Worte mit einem “B” beginnen.
(ChatGPT:) Ben: Blüht bald der Baum?
Berta: Beinahe, Ben. Bald blühen Birnenbäume.
Ben: Beeindruckend. Bunte Blütenblätter bedecken Baumblätter.
Berta: Besser als braune Blätter, Ben. Bist du bereit, Beeren zu pflücken?
Ben: Bereit wie nie zuvor, Berta. Bald beginnen Blaubeeren zu blühen.
Berta: Bombastisch. Bist du bereit, Blaubeerbüsche zu finden?
Ben: Bereit wie immer, Berta. Besser bringen wir bald Beerenbecher mit.

(Hinweis:) Das Ergebnis ist trotz des guten Prompts nicht wirklich überzeugend.

Ein Gedicht wie der “Erlkönig”

Die bekannte Ballade »Erlkönig« von Johann Wolfgang Goethe wurde 1782 geschrieben und später von Franz Schubert und Carl Loewe vertont. Die erste Strophe lautet:
»Wer reitet so spät durch Nacht und Wind?
Es ist der Vater mit seinem Kind;
er hat den Knaben wohl in dem Arm,
er fasst ihn sicher, er hält ihn warm.
«
Jede Zeile hat 9 Silben. Das Reimschema ist AABB.

(Input:) Wieviele Silben hat jede Zeile? Wie lautet das Reimschema?
(ChatGPT:) Jede Zeile des Gedichts hat acht Silben.
Das Reimschema des Gedichts ist ABAB, das heißt, dass sich jeweils der erste und dritte Vers sowie der zweite und vierte Vers reimen.

(Hinweis:) Die Antwort von (ChatGPT:) ChatGPT ist falsch.

(Input:) Schreibe einen neuen Vierzeiler wie im Beispiel zum Thema “Wissen”.
(ChatGPT:) In dunklen Ecken, fern vom Licht,
da ruht das Wissen, das uns sticht.
Doch wer es sucht und wer es findet,
wird klug und weise, ungebändigt.

(Input:) Ich glaube, Dir fehlt das Sprachgefühl um wirkliche Gedichte zu schreiben.
(ChatGPT:) Es tut mir leid, dass mein Gedicht nicht Ihren Erwartungen entsprochen hat. Als künstliche Intelligenz bin ich darauf trainiert, menschenähnliche Sprache zu verwenden, aber ich kann nicht immer das gleiche künstlerische Niveau erreichen wie ein Mensch. Ich werde mein Bestes tun, um in Zukunft bessere Ergebnisse zu liefern. Vielen Dank für Ihr Feedback.

Fazit

Die Beispiele in diesem Artikel haben gezeigt, wo KI versagt und warum sie an ihre Grenzen stößt. So fehlt es der KI an seltenem Wissen oder Sprachgefühl. Die Ergebnisse verbessern sich auch nicht durch Beispiele und genaue Anweisungen in den Prompts. Im weiteren Verlauf der Serie »Schreiben mit KI« werden Sie noch weitere Prompts, Tipps und Tricks kennenlernen.