Die Nutzung von ChatGPT und Konsorten (spreche jetzt hier im weiteren Verlauf von ChatGPT, aber gilt natürlich auch für andere Tools dieser Art) greift immer weiter um sich und die Ehrfurcht vieler Nutzer davor erschreckt mich. Die Ausgabe von ChatGPT wird selten hinterfragt, obwohl Halluzinationen nicht Ausrutscher sondern Teil des Systems sind. Und selbst einfach zu erkennende Fehler werden einfach "durchgereicht", offenbar nach dem Motto "ChatGPT hat das gesagt, also stimmt das schon.". Die Chat-GPT User erliegen der scheinbar übermächtigen "Intelligenz" des Systems, das in Sekunden Ausgaben produziert für die man ggf. Stunden oder Tage bräuchte, wenn man sie selbst aufsetzen wollte. Und es ist mittlerweile wohl fast ein Qualitätsmerkmal, wenn eine Ausgabe von ChatGPT erstellt wurde. Der Nutzende stellt ChatGPT freiwillig über sich selbst und damit natürlich auch über anderen "menschlichen" Output. Das ist wirklich traurig. Man sollte den Ausgaben von ChatGPT mindestens so kritisch gegenüberstehen wie menschlichen Aussagen. Aber man ist irgendwie auch stolz darauf ChatGPT den entsprechenden Output entlockt zu haben und verzichtet damit implizit auf eine kritische Betrachtung (das unselige Wort vom "Prompt Engineer" läßt grüßen). Außerdem ist "das" Argument für ChatGPT die Zeitersparnis und wenn man sich kritisch mit dem Output von ChatGPT auseinandersetzen würde, würde das die Zeitersparnis deutlich relativieren.
Ein zwar belangloses Beispiel, das mir diese Situation noch einmal vor Augen geführt hat, war ein "Gedicht" in einer Einladung (es wurde explizit als von ChatGPT erstellt angepriesen). Das Gedicht mit drei Strophen war wirklich extrem schlecht nach dem Motto "Reim dich oder ich fress dich". ChatGPT hat da auch einfach mal zwei neue Wörter rein halluziniert und ein völlig unpassendes Wort für einen Reim eingebaut. Das Wort passte nicht nur nicht, sondern existiert so auch nicht und entweder hat ChatGPT hier englisch und deutsch gemixt oder einfach die deutsche Orthographie ignoriert. Und noch ein weiterer Reim war offensichtlich vollkommen daneben wenn auch vielleicht technisch korrekt.
Also in einem Gedicht mit drei Strophen zu vier Zeilen bringt ChatGPT vier grobe Patzer unter und der Rest des Gedichts ist eigentlich auch nur peinlich. Und so was bringt man dann ohne zu zögern unter die Leute mit stolzem Verweis auf "ChatGPT".
Es ist natürlich schon beeindruckend wenn ChatGPT auf Knopfdruck einfach ein Gedicht zu jedem beliebigen Thema raushaut. Aber wenn die Qualität dermaßen schlecht ist, fragt es sich schon was der Nutzen sein soll. Und einfach einen Text "zusammenlallen" kann man als Mensch auch relativ einfach hinbekommen, zwar auch nicht mit der Geschwindigkeit von ChatGPT, aber sicherlich auch nicht mehr in einem derartigen Missverhältnis wie bei einem qualitativ hochwertigen selbst erstellten Text.
Im größeren Stil kann man annehmen, dass ChatGPT Inhalte die verschiedenen Kanäle fluten und damit sinkt die Qualität von Inhalten sukzessive. Gleichzeitig kann ein Mensch nicht die Zeit aufbringen solche Inhalte zu bewerten, da die Bewertung zeitlich in einem absolut krassen Missverhältnis zur Output-Geschwindigkeit von ChatGPT steht. Es läuft also irgendwo darauf hinaus entweder ChatGPT zu vertrauen oder nicht. Und wenn man ChatGPT nicht vertraut, was eigentlich die einzig rationale Entscheidung wäre, stellt sich die Frage in welchem Kontext man ChatGPT überhaupt sinnvoll nutzen könnte.
Überdies wird mittlerweile ja auch schon thematisiert inwieweit ChatGPT das Lernmaterial (vom Menschen erstellte Inhalte) ausgeht bzw. ChatGPT Inhalte zum Lernen verwendet die selbst mit KI erzeugt wurden. Das lässt eigentlich auch nicht wirklich Gutes erwarten für die Zukunft von ChatGPT und dergleichen Tools.
Wenn man bestimmte Anwendungsfelder wo ChatGPT sehr erfolgreich ist betrachtet, wie z. B. Chatbots, stellt sich auch die Frage wie die Bewertung des Erfolgs zustande kommt. Die Unternehmen bzw. Organisationen die Chatbots verwenden, wollen damit primär menschliche Arbeitskraft einsparen und das mag auch gelingen. Ob die Chatbots allerdings die Probleme der Anfragenden lösen bleibt dahingestellt. Auch bei Chats mit menschlichen Kommunikationspartnern ist ja oft die Frage ob die Unternehmen nur die Anfragenden "abwimmeln" wollen oder ob wirklich eine Hilfestellung im Vordergrund steht. Mit ChatGPT kann man sicherlich sehr viel günstiger Anfragende frustrieren und zur Einstellung von Anfragen bewegen ... Unternehmen können mit ChatGPT noch eine weitere Ebene der Distanz zum Kunden einziehen.
Interessanterweise habe ich während ich diesen Text geschrieben habe, von dieser Studie zu mit KI erstellter Lyrik gelesen. Das steht im Widerspruch zu meiner Erfahrung mit ChatGPT (siehe oben und auch meinen Text zu Rainald Grebe und Chat-GPT). Vielleicht ist ChatGPT mit englischer Sprache deutlich besser. Vielleicht ist aber auch der Ansatz der Studie etwas fragwürdig. Ich frage mich inwiefern es sinnvoll ist zu fragen ob ein Gedicht von Autor XY ist, wenn man keine Werke von Autor XY kennt. Dann ist das sicherlich schwer zu unterscheiden und ChatGPT kann Texte erstellen, die (in kurzer Zeit) nicht von menschengemachten Texten zu unterscheiden sind.
Bei Gedichten gibt es ja auch keine wirklichen Maßstäbe was gut oder schlecht ist. Es gibt hier kein richtig oder falsch. Insofern mag es nicht wundern, dass hier die Unterscheidung zwischen KI und Mensch nicht gelingt. Ich hätte jetzt bei dem oben genannten Gedicht auch nicht gewusst ob es von der KI stammt oder von einem Mensch. Menschen können auch (aus meiner Sicht) "schlechte" Gedichte verfassen ...
Die KI-Anwendung im Kreativ-Bereich ist sicherlich auch ein eher "ungefährliches" Gebiet. Hier ist Halluzinieren ja kein Problem, sondern kann von Nutzen sein. In anderen Bereichen wo KI allerdings Auskünfte zu bestimmten Sachverhalten gibt oder geben soll, halte ich die KI-Anwendung für deutlich kritischer, siehe oben.
Neuen Kommentar schreiben