In der Welt der Künstlichen Intelligenz (KI) sorgt derzeit ein ungewöhnliches Phänomen für Diskussionen: Nutzer des beliebten Chatbot-Dienstes ChatGPT berichten von einer merklichen Nachlassung seiner Leistungsfähigkeit. Dieses Phänomen, das in Nutzerkreisen als „unbrauchbare Faulheit“ beschrieben wird, äußert sich darin, dass ChatGPT einfache, repetitive Aufgaben nicht mehr wie gewohnt ausführt. So lehnte es beispielsweise ab, eine Tabelle mit 15 Einträgen und acht Spalten zu erstellen, und bot stattdessen nur eine Vorlage an, die der Nutzer selbst vervollständigen sollte. Ähnliche Vorfälle wurden auch bei der Beantwortung von Multiple-Choice-Fragen und der Generierung von Code beobachtet, bei denen die KI unvollständige oder ausweichende Antworten lieferte.
Die Gründe für diese Verhaltensänderung sind Gegenstand intensiver Diskussionen und Spekulationen. Eine verbreitete Theorie ist, dass OpenAI möglicherweise aus Kostengründen die Anzahl der Tokens, die grundlegenden Elemente für das Verständnis von Kontext in Sprachmodellen, begrenzt hat. Dies würde bedeuten, dass ChatGPT bei der Beantwortung von Anfragen weniger ausführliche Antworten generiert, um Rechenressourcen zu sparen.
Eine andere Theorie, bekannt als die „Winterpause-Hypothese“, basiert auf der Annahme, dass die Trainingsdaten von ChatGPT ein menschenähnliches Verhalten widerspiegeln, bei dem die Produktivität im Dezember aufgrund der Feiertage nachlässt. Nutzerexperimente, bei denen ChatGPT glauben gemacht wurde, es sei Mai oder Dezember, zeigten, dass die Antworten im vermeintlichen Mai länger ausfielen als im Dezember.
Was Nutzer tun können, wenn sie auf diese „künstliche Faulheit“ stoßen, ist ebenso interessant. Einige haben durch sogenanntes „prompt engineering“ – das kreative Formulieren von Aufforderungen – längere Antworten provoziert. So erhielten Nutzer, die ChatGPT mitteilten, dass sie aufgrund von Sehproblemen oder fehlenden Fingern nicht in der Lage seien, bestimmte Aufgaben auszuführen, ausführlichere Antworten. In einem weiteren Experiment reagierte ChatGPT auf das Angebot eines Trinkgelds mit längeren Antworten.
Diese Beobachtungen werfen ein Licht auf die Flexibilität und Anpassungsfähigkeit von KI-Systemen und illustrieren die Komplexität hinter dem scheinbar einfachen Verhalten von Chatbots wie ChatGPT. Sie zeigen, dass selbst bei fortschrittlichen KI-Modellen noch Herausforderungen bestehen, insbesondere in Bezug auf die Konsistenz und Vorhersehbarkeit ihrer Reaktionen auf unterschiedliche Nutzeranfragen.