Wenn Tests grün sind – und Nutzer trotzdem „kaputt“ rufen

Wenn Tests grün sind – und Nutzer trotzdem „kaputt“ rufen

In ihrem Talk „It Works on My Machine: Why LLM Apps Fail Users (Not Tests)” teilen sie Erfahrungen aus realen Kundenprojekten und zeigen, wie man LLM-Systeme so entwickelt und betreibt, dass sie nicht nur in der Evaluation gut aussehen, sondern im Alltag echten Mehrwert für Nutzerinnen und Nutzer liefern.

Im Mittelpunkt stehen drei Dimensionen, die darüber entscheiden, ob eine Anwendung als „funktionierend“ erlebt wird:

  • Erwartungen: Welche Ergebnisse erwarten Nutzer – und wie unterscheidet sich das von dem, was das System tatsächlich leisten soll?
  • Funktional: Warum das Zusammenspiel von Prompts, Modellen, Parametern, Daten und Evaluationslogik komplexer ist als die Summe der Einzeltests.
  • Operational: Wie Observability, Telemetrie und Validierungs-Endpunkte helfen, Verhalten im laufenden Betrieb zu verstehen und Probleme frühzeitig zu erkennen – insbesondere in sensiblen oder On-Premises-Setups.

Statt sich auf Tools oder Frameworks zu konzentrieren, beleuchtet der Talk die menschliche Seite von Evaluation: Wie finden wir heraus, ob ein System wirklich den Menschen dient, die täglich damit arbeiten?

Wer LLM-Anwendungen plant, entwickelt oder in Produktion verantwortet, bekommt praxisnahe Einblicke, typische Fallstricke aus realen Szenarien – und Anregungen für eigene Strategien und Muster, um nutzerzentrierte, robuste Systeme zu bauen.

Weitere Artikel

Von der Idee zur skalierbaren GenAI-Lösung
Von der Idee zur skalierbaren GenAI-Lösung

neunzehn innovations auf der PyCon DE & PyData 2025

Mehr lesen

Gemeinsam für eine gute Sache

Gemeinsam für eine gute Sache

neunzehn innovations unterstützt Rotary Club Schriesheim-Lobdengau

Mehr lesen
Offsite 2026: Fokus, Fortschritt, Fahrplan
Offsite 2026: Fokus, Fortschritt, Fahrplan

Bei unserem Offsite 2026 haben wir Erfahrungen aus Kundenprojekten, aktuelle KI-Entwicklungen und unsere internen Abläufe geschärft.

Mehr lesen