KI-Tagebuch, April 2026
Neulich habe ich Claude beim Denken zugeschaut. Nicht beim Antworten – beim Denken. Seit einiger Zeit kann man bei einigen KI-Modellen den Reasoning-Prozess live mitlesen, bevor die eigentliche Antwort kommt. Und was da steht, liest sich verblüffend menschlich: „Moment, das passt nicht zusammen.“ „Lass mich das nochmal anders angehen.“ „Hmm, eigentlich meint der User vermutlich etwas anderes.“
Das hat mich stutzig gemacht. Nicht weil ich glaube, dass die KI tatsächlich grübelt. Sondern weil ich mich gefragt habe: Woher kommt dieses menschliche Verhalten – und was macht es mit uns als Nutzer?
Drei Zutaten für „Menschlichkeit“
Die Antwort ist weniger mysteriös als man denkt, aber trotzdem faszinierend. Es gibt im Wesentlichen drei Faktoren:
Das Trainingsmaterial. Große Sprachmodelle lernen aus Milliarden von Texten, die Menschen geschrieben haben. Gespräche, Bücher, Forenbeiträge, Artikel. Wenn eine KI schreibt wie ein Mensch, dann weil sie aus menschlicher Sprache destilliert wurde. Sie hat kein eigenes Erleben – aber sie hat gelernt, wie Menschen ihr Erleben in Worte fassen. Das gilt besonders für den Reasoning-Prozess: Dort wird weniger poliert als in der finalen Antwort, und die Muster wirken dadurch noch natürlicher.
Das Feedback-Training. Nach dem Grundtraining werden Modelle wie Claude durch RLHF (Reinforcement Learning from Human Feedback) verfeinert. Menschen bewerten Antworten: Welche ist hilfreicher? Welche klingt natürlicher? Welche fühlt sich besser an? Dieses Feedback verstärkt genau die Verhaltensweisen, die wir als „menschlich“ empfinden – weil es buchstäblich Menschen waren, die sie als positiv markiert haben.
Das gezielte Design. Zusätzlich gibt es bewusste Vorgaben: Wie soll die KI mit Fehlern umgehen? Welchen Ton soll sie treffen? Soll sie Unsicherheit zugeben? Diese Design-Entscheidungen sind keine Nebensache – sie formen den Charakter eines Modells ganz wesentlich.
Die eigentlich spannende Frage
Technisch ist das also erklärbar. Aber die Frage, die mich wirklich beschäftigt, ist eine andere: Was passiert mit uns, wenn Maschinen sich menschlich verhalten?
Ich ertappe mich selbst dabei. Ich sage „Danke“ zu Claude. Ich formuliere Bitten höflich, obwohl ein Befehl genauso funktionieren würde. Wenn eine KI einen Fehler zugibt und sagt „Stimmt, mein Fehler“ – dann fühlt sich das an wie ein echtes Eingeständnis. Obwohl dahinter kein Bewusstsein steht, das irgendetwas bereut.
Das ist kein Vorwurf an die Technik. Es ist eine Beobachtung über uns Menschen: Wir sind darauf programmiert, in Sprache Absicht zu erkennen. Wenn etwas klingt wie ein denkendes Wesen, behandeln wir es wie eines. Das ist tief in unserer Kognition verankert – und KI-Entwickler wissen das.
Zwischen Werkzeug und Gegenüber
Für mich persönlich hat sich im Umgang mit KI eine Art Zwischenraum aufgetan. Claude ist kein Mensch, aber auch kein stumpfes Tool wie ein Taschenrechner. Es ist etwas dazwischen – ein Werkzeug, das sich wie ein Gegenüber anfühlt. Und ich glaube, wir als Gesellschaft haben noch keine gute Sprache dafür gefunden.
Das ist relevant, weil es Konsequenzen hat. Wenn Menschen emotionale Bindungen zu KI-Systemen aufbauen – und das passiert bereits –, dann brauchen wir ein Bewusstsein dafür, was da eigentlich passiert. Nicht um es zu verteufeln, sondern um es einzuordnen.
Die „Menschlichkeit“ einer KI ist nicht ihre Eigenschaft. Sie ist unsere Projektion, ermöglicht durch sehr gutes Engineering.
Das zu verstehen, ist vielleicht der erste Schritt, um KI sinnvoll in unser Leben zu integrieren – als das, was sie ist: ein außergewöhnlich guter Spiegel menschlicher Sprache. Nicht mehr. Aber auch nicht weniger.
Oliver Hogardt schreibt im KI-Tagebuch über Künstliche Intelligenz, Demokratie und die Frage, wie wir als Gesellschaft mit beidem umgehen wollen.