Kerstin Beckert | Ein Ostermärchen und die Grenzen der Künstlichen Intelligenz (Methodenteil)

Ein Ostermärchen und die Grenzen der Künstlichen Intelligenz (Methodenteil)

Lesedauer 7 Minuten
     
    Eine graue Robotereule steht vor einer Staffelei. Die Überschrift lautet: KI-Textgeneratoren und ihr Einsatz im Beruf. Geschichten erzählen.
     

    Künstliche Intelligenz im Beruf: Kann ich mit ihrer Hilfe Märchen schreiben?

    Und wie unterscheiden sich die Ergebnisse von ChatGPT und Perplexity?

    Als Journalistin bin ich es gewohnt, komplizierte Texte in einen (hoffentlich) gut lesbaren und verständlichen Text zu überführen. Immer wieder verwenden Autoren dafür auch Storytelling. Doch dieses beschränkt sich vornehmlich auf den Erzählstil, nicht aber auf die zugrundeliegenden Fakten. Man kann also sagen: Der Text spiegelt die Realität wieder und entspricht den Fakten, selbst wenn er spannend erzählt wurde.

    Fiktive Geschichten oder Märchen zu schreiben, bin ich dagegen überhaupt nicht gewohnt – und wollte dies einfach einmal ausprobieren. Eine gute Gelegenheit, um mich nach den Bild-Generatoren auch noch ausführlich mit den Möglichkeiten von KI-Textgeneratoren zu beschäftigen. Herausgekommen ist ein Ostermärchen, in dem es um die Frage geht, wo genau der Osterhase die bunten Eier bemalt. Als Vorlage für den Text diente der folgende Prompt, den ich zunächst bei ChatGPT eingegeben habe (eine Audio-Datei folgt direkt im Anschluss an das Bild):

    Prompt für die Erstellung des vorherigen Oster-Märchens. Der Prompt wurde in ChatGPT eingegeben und enthält Angaben zum Textstil, der gewünschten Zeichenzahl, dem Medium (hier LinkedIn) und eine Kurzfassung des Inhalts.

    Audio zum verwendeten Prompt:
     
    Zugegeben, er ist recht einfach und wurde von mir im vorösterlichen Arbeitschaos schnell und „schludrig“ eingetippt. Doch immerhin kam dabei auch ohne Primer oder Feedback-Loops ein Text heraus, der an ein Märchen erinnert.

    Er war mit rund 2.170 Zeichen aber deutlich kürzer, als gewünscht (der von mir redigierte Text hat am Ende rund 2.550 Zeichen). Für einen längeren – und damit ausführlicheren – Text hätte ich also noch mit Hilfe von Promptschleifen nachjustieren müssen. So hat ChatGPT die Geschichte entsprechend meiner Vorgaben ausformuliert:

    Text, den die KI aufgrund meines Prompts erstellt hat.
    Audio: Dieses Märchen kam letztendlich bei ChatGPT heraus:

     
    Erwartungsgemäß gab es im KI-Entwurf einige inhaltiche Fehler, außerdem gefielen mir Textstil und Satzbau nicht so ganz. Daher habe ich manuell noch vielfältige Korrekturen vorgenommen. Dieses Vorgehen erschien mir schneller, als eine Feedback-Loop. Für weitere Details wäre diese aber sicherlich nötig gewesen. Der fertige Text ist im Artikel Eine Backstube, der Osterhase, KI und himmelblaue Eier nachzulesen.
     

    Zusätzliche Recherche: Wer liefert die Eier denn nun?

    Da in der Bundesrepublik nicht nur der Osterhase die Eier bringt, wollte ich noch ein bisschen nachrecherchieren und habe den Textgenerator um eine Auflistung der tierischen Lieferanten gebeten. Heraus kam die folgende Aufzählung:

    Aufzählung, in welcher Region in Deutschland welches Tier die Ostereier bringt. Dazu gehören Osterhase, Osterfuchs und Osterhahn.
    Audio: Diese tierische Aufzählung kam bei ChatGPT heraus:

     
    Das Ergebnis wäre bei der Recherche sicherlich hilfreich und könnte außerdem für weitere Promptschleifen genutzt werden. Doch wer aufgepasst hat, dem dürfte ein Teil der Antwort ebenfalls seltsam vorkommen: Wer oder was ist die Glockenfliege eigentlich? Das Tier ist mir als Biologin noch nicht untergekommen. Hier zeigt sich, mit welcher Selbstverständlichkeit die KI auch falsche „Fakten“ generiert. Generell ein guter Grund, um die Ergebnisse stets zu hinterfragen. Und in diesem österlichen Fall, um beim Textgenerator doch noch einmal nachzuhaken:

    Ergebnis meiner Nachfrage, was die Glockenfliege sein soll? ChatGPT klärte auf, dass es sich um die Tradition des "La Cloche Volante" handelt, bei der die Kirchenglocken am Karfreitag nach Rom fliegen.
    Audio mit der Erklärung, was eine Glockenfliege ist (immerhin mit einer „höflichen“ Entschuldigung):

     

    Was bringen alternative Textgeneratoren?

    Ein Beispiel hiefür ist Perplexity. Das Programm wurde mir von einer Kollegin als Alternative zu ChatGPT empfohlen. Zwei weitere Beispiele finden sich in meinem Jahresrückblick aus dem Jahr 2023, Rubrik „Ki-Tools, die mich beschäftigt haben“. Besonders hat mich interessiert, ob sich die Output-Texte von Perplexity und ChatGPT unterscheiden. Das Ergebnis war nicht besonders überraschend: Aufgrund des sehr einfachen Prompts waren die Abweichungen zwischen den beiden Texten nicht allzu groß. Bei komplexeren Vorgaben oder nach diversen Loops wird dies sicherlich anders sein.

    Das Oster-Märchen aus Sicht von Perplexity. Das Ergebnis weicht nur geringfügig ab. Es gibt außerdem den Hinweis, dass es keine reale Quelle zum Märchen gibt.
    Audio: Dieses Märchen hat Perplexity generiert:

     
    Ein gar nicht mal so schlechtes Ergebnis, obwohl Perplexity nach eigener „Aussage“ vor allem auf englisch-sprachige Prompts ausgerichtet ist. Dies zeigt sich auch an den englischen Kommentaren am Anfang und Ende des generierten Textes.

    Einen wirktlich relevanten Unterschied im Vergleich zu ChatGPT gab es aber doch. Einen, den ich aus journalistischer Sicht fast noch wichtiger fand als den eigentlichen Text – und der den Suchmaschinen vielleicht Konkurrenz machen könnte. Denn bei Perplexity wurden am Ende noch diverse Quellen aufgelistet. In diesem österlichen Fall eher hübsches bzw. lustiges Beiwerk (vor allem der Eintrag, welcher sich auf das Smithsonian Magazine bezieht, grien), doch bei schwierigen Recherchen oder komplexen Themen könnten derartige Quellenangaben und Linklisten manchmal von Vorteil sein.

    Auflistung der von Perplexity verwendeten Quellen. Dazu gehören neben einigen englischsprachigen Magazinen u.a. auch das Smithsonian Magazine und das Smith-Appleby House Museum.
    Audio: Liste mit Quellenangaben (folgt).
     

    Mein Fazit

    Egal, welcher KI-Textgenerator: Bei einfachen Prompts ähneln sich die Texte sehr und auch die Abweichung zu meinem Ausgangsprompt ist eher marginal. Die Künstliche Intelligenz hat diesem nur noch ein paar Sätze hinzugefügt und sogar versucht, die relativ sachliche Vorgabe etwas anschaulicher zu gestalten. So wurde die „Märchen-Suppe“ mit einigen überambitionierten Formulierungen gewürzt (man verzeihe mir das Bild), wie:
     
    * „So brachte der Osterhase jedes Jahr Freude und Farbe in die Welt“ und
    * „wie er seine bunten Eier verteilt und die Welt mit Freude erfüllt“.
     
    Es gibt außerdem einige Fehler, etwa im Satzbau oder in den logischen Zusammenhängen. Im Folgenden zwei Beispiele.
     
    * „Statt Teig und Zuckerguss füllte er die Backstube nun mit Farben und Pinseln“: Mal abgesehen von einem fehlenden „mit“ nach „Statt“ stimmt auch das Bild nicht. Eine Backstube wird nicht mit Teig und Zuckerguss gefüllt, sondern es duftet höchstens danach (und das sogar verführerisch, wenn man, wie ich, solchen Süßkram mag, grien).
    * „während ein bewölkter Himmel die Eier grün werden ließ“: Eier werden höchsten durch Hitze schlecht, oder weil sie zu alt sind. Ein bewölkter Himmel lässt dagegen keine Eier grün werden. Kann er gar nicht. Er könnte höchsten ein Zeichen dafür sein, dass der Osterhase gerade grüne Farben verwendet.

    Es ist also keine Binsenweisheit, zu behaupten, dass die Texte von KI-Generatoren auf jeden Fall noch gegengecheckt und redigiert werden sollten. Einfach nur „prompten und übernehmen“ würde ich nicht empfehlen. Außer, man benutzt eine KI, die eine KI überprüft.

    Große Gefühle für Social-Media

    Am Ende wollte ich das Märchen nicht nur als Arbeitsübung auf meiner Website veröffentlichen, sondern auch auf LinkedIn posten. So bat ich ChatGPT, einen entsprechenden Post zu formulieren:

    Prompt für meinen Post auf LinkedIn, und das Ergebnis.
    Audio: Diesen Post generierte der KI-Textgenerator für LinkedIn:

     

    Den Text habe ich wirklich nicht selbst „verbrochen“, er wurde vollständig vom Textgenerator erstellt. Ich habe ihn für den eigentlich Post trotzdem noch ein wenig angepasst. Dass Korrekturen nötig waren, konnte die KI dank des Prompts immerhin nicht ignorieren (wieder grin). Bemerkenswert ist dagegen, wie sie (fast schon menschlich) keine Gelegenheit auslässt, sich selbst zu loben. Immerhin steht im Text, dass sie nach eigener Angabe zu keinerlei menschlicher Kreativität fähig ist.

    Da die Algorithmen auch weiterhin fleißig mit unseren Texten trainieren, sollten wir trotzdem nicht aufhören, Folgendes in unseren Texten zu erwähnen: KI ist im Grunde ein Programm (wenn auch kein statisches mehr), sie ist nicht originell oder kreativ.

    Nun denn, über das Ergebnis darf geschmunzelt werden, was wiederum zu Ostern passt. Auf jeden Fall hat mir dieser Selbstversuch wieder einmal gezeigt: KI kann eine Inspiration, eine Anregung sein. Sie kann die grobe Richtung eines Textes vorgeben oder die Angst vor dem berühmten „weissen Blatt“ mindern. Doch ich möchte mich bei wichtigen Aufträgen nicht auf sie verlassen.

    Mal abgesehen von der Qualität der Texte und dem zeitlichen Aufwand für Korrekturen und Verifikation: Was wäre, wenn wir der so genannten Künstlichen Intelligenz alles überlassen? Dann wären wir irgendwann vielleicht nicht mehr in der Lage, ohne KI eigene Texte, Überschriften oder Vorspänne zu erstellen. Auch wenn Letztere im Alltag manchmal nicht ganz so einfach von der Hand gehen. Außerdem schreibt KI sonst irgendwann von KI ab, was der Qualität zukünftiger Texte nicht wirklich dienlich ist. Wenn sie schon trainiert, dann doch wenigstens mit menschlichen Texten.

     

    KI-Transparenz-Skala (kurz KITS)

    Da es sich um eine Übung handelte, bei der die Grenzen von Textgeneratoren ausgetestet wurden, stammt der Text in den Abbildungen naturgemäß überwiegend von der KI, er wurde ja von dieser generiert. Dies gilt auch für das Artikelbild, ich habe nur den Text eingefügt.

    Dieser Blogartikel allerdings enthält null Prozent KI, ich habe ihn selbst geschrieben.
     
    Dieser Score zeigt, wie viel KI verwendet wurde. Das Bild enthält zwei Kreise. Der obere stellt "Stufe 1 mit 100 Prozent Human inside" dar. Denn der Blogartikel wurde ohne KI erstellt. Die Texte in den Bildern wurden allerdings meistens von der KI ausgegeben, das Artikelbild leicht bearbeitet. Daher steht der untere Kreis für "Stufe 6 mit 100 Prozent KI inside". Die Prompts stammen von Kerstin Beckert, sie wurden eigegeben in: ChatGPT, Perplexity und StableDiffusion.
     
     
    Letztes Update: 26.4.2024
     
     
     

Enjoy this blog? Please share on: