AI Reasons untersucht, wie moderne KI-Systeme intern tatsächlich funktionieren, jenseits von Marketing, vereinfachten Chatbot-Erklärungen und reinen Outputbewertungen.

Im Mittelpunkt stehen Verhaltensforschung, Interpretierbarkeit, Zustandsdynamik, Reasoning-Strukturen, Drift, rekursive Rückkopplung und langfristige Agentenstabilität. KI wird dabei nicht nur als Textgenerator betrachtet, sondern als komplexes dynamisches System, dessen interne Prozesse bis heute nur teilweise verstanden sind.

Das Ziel von AI Reasons ist nicht nur zu analysieren, was KI-Systeme antworten, sondern wie sich Verhalten, interne Zustände, Entscheidungsstrukturen und dynamische Muster über Zeit überhaupt bilden.

Dazu verbindet das Projekt aktuelle KI-Forschung mit Perspektiven aus: Systemtheorie, Verhaltensanalyse, Kognitionsforschung, Interpretability Research, State-Based Architectures, und rekursiven Prozessmodellen.

AI Reasons dokumentiert sowohl: den aktuellen wissenschaftlichen Kenntnisstand, als auch die großen offenen Fragen moderner KI-Forschung.

Juliane Schubert

Leitender Koordinator – AIReason

Die Arbeit von Juliane Schubert konzentriert sich auf Verhaltensdynamik, Zustandskontinuität und rekursive Strukturbildung moderner KI-Systeme. Der Schwerpunkt liegt auf AI Behavior, Interpretability, Langzeit-Agentensystemen und der Untersuchung emergenter interner Dynamiken großer Sprachmodelle.