Ich gestalte KI-Systeme rund um die Art, wie Menschen tatsächlich entscheiden und handeln — nicht als verstecktes Backend, sondern als Interface, das Unsicherheit kommuniziert, Urteilsvermögen unterstützt und Menschen in Kontrolle hält, wenn die Einsätze hoch sind.
Ich habe in Wirtschaftsinformatik an der Leibniz Universität Hannover promoviert — „Leveraging User-Centered and Neuro-Symbolic Artificial Intelligence in Information Systems“ — und sechs internationale Paper zu Human-AI Interaction und Knowledge Engineering veröffentlicht, weitere entstehen noch. Unter der Forschung liegen fünf Jahre angewandte Arbeit in Konzernen wie Bosch, Mittelstand-Unternehmen wie eccenca und Startups wie MyActivities: Agenten, Wissensgraphen, Retrieval-Pipelines und die Interfaces, die sie nutzbar machen. Ich bleibe aktiv in der Wissenschaft — ich reviewe, publiziere und arbeite mit Forschenden zusammen —, weil der Maßstab, den ich an Projektarbeit anlege, aus derselben Quelle kommt.
2026 ist Modellqualität selten der Engpass. Der schwierige Teil ist Produkt-Adoption. KI wird ignoriert, wenn Nutzer die Qualität der Ausgabe nicht einschätzen können, bei Fehlern nicht sinnvoll weiterkommen oder mit dem Tool langsamer sind als ohne. Das sind Produktdesign-Probleme, keine Modellprobleme.
Mein Prozess startet bei der Nutzerentscheidung: Was muss diese Person entscheiden, welche Evidenz braucht sie dafür, und wo sollte KI vorschlagen statt schweigen? Danach gestalten wir den Übergang zwischen Modell-Output und menschlichem Urteil. Wer das sauber löst, baut KI, auf die man sich verlässt; wer es ignoriert, baut KI, die umgangen wird.