Case Study

Therabits: KI-generierte Simulation für skalierbares Psychologie-Training

Digitalisierter Trainings-Workflow

Mehr Trainingseinheiten durch kontrollierte, wiederholbare und risikofreie Simulationen

DSGVO-Konformität

Volle Kontrolle über Datenaufbewahrung, Zugriffsrechte und Systemverfügbarkeit
FilamentPHP CRM für Spendenverwaltung

Ausgangssituation des Kunden

In der klassischen Psychologieausbildung sammeln Studierende praktische Erfahrung, indem sie unter Aufsicht an Therapiesitzungen mit echten Patientinnen und Patienten teilnehmen. Sie lernen durch Beobachten und beteiligen sich später unter Supervision aktiv an realen Sitzungen. Dieses Modell stößt jedoch an klare Grenzen, wenn es darum geht, ausreichend Übungsvolumen für eine echte klinische Kompetenz bereitzustellen:

  • Die Anzahl möglicher Sitzungen ist durch Termin- und Supervisionsverfügbarkeit begrenzt;

  • Die Einwilligung der Patientinnen und Patienten zieht der Beteiligung von Studierenden klare Grenzen;

  • Das Risiko, dass unerfahrene Behandler – auch unter Aufsicht – Schaden anrichten, ist nicht zu vernachlässigen.

Entscheidender ist: Studierende kommen kaum dazu, selbst auf eine Patientin oder einen Patienten zu reagieren. Solange das klinische Urteilsvermögen noch nicht ausgereift ist, birgt jeder eigene Wortbeitrag ein reales Risiko psychischer Belastung. Schon unglücklich gewählte Worte einer ungeübten Person können im therapeutischen Kontext Schaden anrichten.

Die Universität wollte diese Engstelle auflösen: deutlich mehr Übungsszenarien in größerer Vielfalt – ohne reale Patientinnen und Patienten zu gefährden. Therabits ersetzt dafür den realen Patienten durch einen KI-generierten Avatar, der realistische psychische Krankheitsbilder als vorgerendertes Video präsentiert. Studierende treten mit der Simulation in einen Dialog wie in einer realen Sitzung, zeichnen ihre Antworten auf und erhalten anschließend strukturiertes Feedback ihrer Supervisorin oder ihres Supervisors.

Therabits bedient drei klar getrennte Nutzergruppen:

  1. Autorinnen und Autoren: erstellen die Skripte (Prompts), aus denen die KI-Avatare generiert werden.

  2. Supervisoren: kuratieren die Trainingsinhalte, konfigurieren Lernpfade und bewerten die Leistung der Studierenden.

  3. Studierende: Psychologiestudierende und Ausbildungsteilnehmende durchlaufen die Übungen als Teil ihres Curriculums.

Die Anwendung ist kein Endkundenprodukt und nicht für den öffentlichen oder kommerziellen Einsatz vorgesehen. Sie ist ein institutionelles Forschungsinstrument für ein konkretes, akkreditiertes Ausbildungsprogramm.

Über die Trainingsfunktion hinaus hat das Projekt eine Forschungsdimension: Die Universität führt eine formelle Studie durch, um zu evaluieren, ob KI-generierte Simulationen eine pädagogisch wirksame und klinisch belastbare Methode der Psychologie-Ausbildung darstellen. Die Web-Anwendung ist sowohl Werkzeug als auch – in gewissem Umfang – Gegenstand dieser Studie.

Wie funktioniert die Lösung?

Drei aufeinander aufbauende Workflows greifen ineinander: die Erstellung der Prompts durch Autorinnen und Autoren, die Zusammenstellung der Inhalte durch Supervisoren und die Trainingseinheiten der Studierenden.

Workflow für Autorinnen und Supervisoren: Prompts und Inhalte erstellen

Eine Autorin meldet sich an und wechselt in den Bereich Prompts, in dem sie ein Szenario verfasst. Das Skript wird in der Ich-Perspektive geschrieben – so, als spräche eine Patientin oder ein Patient über ihre psychische Situation. Die Bandbreite reicht von Trauerfällen, Trennungen und Sinnkrisen bis hin zu schwerwiegenderen Bildern wie Selbstverletzung oder akuter Krise. Anschließend übernimmt der Supervisor: Er wählt aus den verfügbaren Konfigurationen das Aussehen und die Stimme des Avatars aus. Diese Gesamtanforderung wird an den externen KI-Videodienst (Synthesia) übergeben, der ein fotorealistisches Video eines digitalen Avatars erzeugt, das das Skript spricht.

Die Videogenerierung läuft asynchron. Sobald das Rendering abgeschlossen ist, benachrichtigt Synthesia die Anwendung per Webhook, und das fertige Video wird automatisch heruntergeladen. Der Supervisor kann das Video direkt in der Anwendung abspielen und auf klinische Plausibilität und Eignung prüfen. Erfüllt es den Qualitätsanspruch, wird es freigegeben und steht dem Training zur Verfügung. Wird es abgelehnt, kann es überarbeitet und neu eingereicht werden. Die Oberfläche zeigt jederzeit den vollständigen Status jedes Video-Assets: in Bearbeitung, abgeschlossen, fehlgeschlagen, neu gestartet oder vom Anbieter abgelehnt – Supervisoren behalten den gesamten Content-Pipeline-Status im Blick.

Pro Szenario werden zwei Videotypen erzeugt:

  1. Das eigentliche Szenario-Video: der Avatar schildert seine psychische Situation.

  2. Ein Idle-Video als aktive Zuhör-Schleife: eine kurze Sequenz mit aufmerksamem Nicken, die durchgehend abgespielt wird, während die Studierenden ihre Antwort einsprechen. Dieser Platzhalter wahrt die psychologische Realität der Sitzung – die Studierenden sprechen nicht gegen einen Standbild-Bildschirm.

Sobald genügend freigegebene Videos vorliegen, stellt der Supervisor einen Lernpfad zusammen: eine kuratierte, geordnete Sequenz von Szenarien, gestaffelt nach klinischer Schwierigkeit (leicht bis schwer). Die Lernpfade reichen von einsteigerfreundlichen Krankheitsbildern bis zu fortgeschrittenen Szenarien mit schweren psychischen Erkrankungen.

Workflow für Studierende: Trainingsübung

Studierenden wird eine Übung zugewiesen. Sie wählen einen Lernpfad und starten die Sitzung. Die Anwendung blendet eine simulierte Videoanruf-Oberfläche ein. Das Szenario-Video läuft und präsentiert das klinische Bild des KI-Avatars. Endet das Video, beginnt die Idle-Schleife – und parallel wird die Antwort der Studierenden aufgezeichnet. Die Aufzeichnung wird in der Anwendung gespeichert und steht später für die Auswertung zur Verfügung. Nach jedem Prompt geht es in der vorgegebenen Reihenfolge des Lernpfads weiter.

Nach Abschluss aller Prompts schließen die Studierenden eine Selbsteinschätzung mit Schwierigkeitsbewertung (leicht, mittel, schwer) ab – inklusive zeitlich verankerter Anmerkungen zur eigenen Leistung und zu klinischen Entscheidungen während der Übung. Der abgeschlossene Lernpfad – Aufzeichnungen und Selbsteinschätzung – wird der Supervisorin oder dem Supervisor zur Bewertung freigegeben. Bei erfolgreichem Abschluss können Studierende ein PDF-Zertifikat herunterladen.

Während der Sitzung mit den Studierenden gibt es keine generative oder dynamische KI-Komponente. Sämtliche Inhalte sind vorgerendert und festgelegt. Es findet keine Echtzeit-LLM-Verarbeitung statt, kein dynamischer Avatar-Dialog und keine KI-gestützte Bewertung der studentischen Leistung während der Übung.

Wie wurde die Lösung entwickelt?

Vorgehen in der Entwicklung

Bei Laramate GmbH zählt das Ergebnis.

Unsere Kunden bezahlen für gelieferte Leistungen. Die Entwicklung lief – wie bei uns üblich – meilensteinbasiert.

— Laramate GmbH

Eine Besonderheit dieses Projekts: Der Kunde verlangte fortlaufenden Zugriff auf den Code. Nach jedem abgeschlossenen Meilenstein wurde die aktualisierte Codebasis in das Repository der Universität gepusht. So konnten die hauseigenen IT-Mitarbeitenden den Code schrittweise prüfen, Rückfragen stellen und sicherstellen, dass jede Entwicklungsphase die Anforderungen erfüllt – bevor der nächste Meilenstein begann. Das schützt die Integrität des Entwicklungs-Branches, vermeidet Merge-Konflikte und ist ein Vorgehen, das wir auch für ähnliche Projekte empfehlen.

Wir sind klar pro Kundenunabhängigkeit. Wir lehnen Vendor-Lock-in konsequent ab. Keine proprietäre Kontrolle über die Codebasis unserer Kunden. Das gehört zu unseren wichtigsten Grundsätzen.

— Laramate GmbH

In einem institutionellen Kontext wie diesem – in dem die Universität die Anwendung über die Laufzeit einer mehrjährigen Studie hinweg eigenständig pflegen, anpassen und erweitern können muss – ist diese Transparenz keine reine Geschäftshaltung, sondern eine funktionale Anforderung, von der beide Seiten profitieren.

Zusätzlich haben wir die Universität bei der sicheren Konfiguration ihrer self-hosted Umgebung beraten – ein notwendiger Schritt angesichts der strengen Datenschutz- und Compliance-Anforderungen einer Hochschule.

Herausforderungen in der Entwicklung

Inhaltsbeschränkungen kommerzieller KI-Video-APIs bei sensiblen Themen

Eine kritische Hürde betrifft den Inhalt des Trainingsmaterials selbst. Psychologie-Ausbildung muss auch Patientinnen und Patienten in Krisensituationen abbilden – mit Selbstverletzung, Suizidgedanken oder schweren Traumata. Das ist ein legitimer klinischer Bedarf. Die Generierung von Videoinhalten zu genau diesen Themen ist jedoch unter den Nutzungsbedingungen praktisch aller kommerziellen KI-Video-Anbieter untersagt. Anbieter lehnen entsprechende Anfragen routinemäßig ab und können Konten, die solche Inhalte einreichen, sperren oder dauerhaft schließen.

Daraus ergibt sich ein Zielkonflikt: Die Anwendung kann ihren klinischen Zweck nicht ohne genau diese Inhalte erfüllen – und kein einzelner Anbieter ist verlässlich bereit, sie dauerhaft zu erlauben.

Statt sich von der Policy eines einzelnen Anbieters abhängig zu machen, wurde die Anwendung um eine universelle, dokumentierte Provider-Schnittstelle herum gebaut. Konkret: Die API-Integrationsschicht abstrahiert die Anbindung an den Videodienst so, dass der Wechsel zu einem alternativen Anbieter – sei es mit anderer Content Policy oder einer kommerziellen Vereinbarung, die klinische Inhalte zulässt – lediglich die Implementierung der definierten Schnittstelle erfordert, statt die Integration komplett neu aufzubauen.

PDF-Zertifikate ohne Headless Browser

Die zweite Herausforderung ergab sich aus den Wartungsvorgaben für den Server beim Kunden. Unser Standardvorgehen für PDF-Generierung setzt Chrome im Headless-Modus ein – mit umfassender CSS-Unterstützung, präziser Kontrolle über Layout, Typografie, Seitenumbrüche und Komposition, auf dem Niveau moderner Dokumentengestaltung. Headless Chrome auf einem Webserver bedeutet aber Installation und laufende Wartung.

Die Vorgabe machte den Einsatz einer alternativen, PHP-basierten PDF-Bibliothek erforderlich. Deren CSS-Unterstützung ist deutlich eingeschränkter, mehrere Gestaltungstechniken fielen damit weg. Das Zertifikatstemplate auf dem geforderten Qualitätsniveau innerhalb dieser Grenzen umzusetzen, hat zusätzlichen Entwicklungsaufwand bedeutet. Das Ergebnis blieb in der vereinbarten Qualität – mit einem bewussten Trade-off: geringerer langfristiger Wartungsaufwand beim Kunden im Tausch gegen mehr Komplexität in der Entwicklung.

DSGVO-Konformität in einer API-abhängigen Architektur

Die Anwendung zeichnet die Videoantworten der Studierenden während der Trainingssitzungen auf. Da es sich um identifizierbare Personen handelt und die Aufzeichnungen sensible Leistungsdaten in einem akademischen Kontext erfassen, war DSGVO-Konformität nicht verhandelbar. Keine studentischen Aufzeichnungen werden an externe Dienste übermittelt oder dort gespeichert – auch nicht an die Video-API, obwohl die Anwendung von dieser externen API für die Inhaltsproduktion abhängt. An die externe API werden ausschließlich die von Supervisoren erstellten Skripte und Konfigurationsdaten übergeben. Sämtliche studentischen Aufzeichnungen liegen ausschließlich auf den Servern der Universität.

Schlüsselfunktionen im Überblick

Prompt-Verwaltung

Autorinnen und Autoren erstellen Szenario-Skripte über ein Dashboard. Jeder Prompt wird als Ich-Dialog verfasst, den der KI-generierte Avatar später spricht – jeweils zu einer konkreten psychischen Situation. Anschließend übernimmt der Supervisor und wählt aus den von der Video-API angebotenen Optionen das Aussehen und die Stimme des Avatars aus.

Video-Pipeline mit Status-Tracking

Nach dem Einreichen verfolgt die Anwendung jedes Video-Asset über den gesamten Produktionszyklus. Supervisoren sehen in Echtzeit (per Webhook), ob ein Video gerade rendert, erfolgreich abgeschlossen ist, fehlgeschlagen wurde, neu gestartet oder vom Anbieter abgelehnt wurde – einschließlich Ablehnungen aufgrund von Content-Policy-Verstößen.

Webhook-basierter Video-Abruf

Die Anwendung ist über einen Webhook-Endpunkt mit dem Videoanbieter Synthesia verbunden. Sobald das Rendering abgeschlossen ist, sendet der Anbieter eine Benachrichtigung – die Anwendung lädt das fertige Video automatisch herunter und speichert es lokal.

CLI-Befehle für API-Verwaltung

Eine eigene Sammlung von Artisan-CLI-Befehlen verwaltet die Webhook-Integration mit Synthesia. Administrierende können Webhook-Endpunkte anlegen, aktualisieren und entfernen, ohne sich am Dashboard des Anbieters anmelden zu müssen. Die Befehle werden beim initialen Deployment und bei Anpassungen der Integration genutzt.

Audit-Oberfläche für Supervisoren

Supervisoren prüfen generierte Videos direkt in der Anwendung, konfigurieren Avatar-Aussehen und -Stimme und übergeben Inhalte an die Video-API. Inhalte können freigegeben oder abgelehnt werden – das hält die Inhaltsbibliothek sauber.

Zur Bibliotheksverwaltung gehört ein Lernpfad-Builder. Damit fügen Supervisoren freigegebene Szenario-Videos zu geordneten, gestaffelten Lernpfaden zusammen und kalibrieren die Schwierigkeit von Einsteigerszenarien bis zu fortgeschrittenen klinischen Bildern.

Simulierter Videoanruf für Studierende

Studierende werden in einer Übung in eine simulierte Videoanruf-Umgebung geleitet, in der sie ihre Trainingssitzung absolvieren. Die Oberfläche steuert die sequentielle Wiedergabe von KI-Patientenszenarien (fixiert) und Idle-Videos, nimmt nach Start (zeitgebunden) die Antworten auf und führt Studierende durch den vollständigen Lernpfad – gestaffelt nach Schwierigkeit.

Selbsteinschätzungs-Fragebogen

Nach Abschluss eines Lernpfads bearbeiten Studierende einen strukturierten Selbsteinschätzungsbogen, beginnend mit einer Schwierigkeitsbewertung. So reflektieren sie ihre eigene Leistung – klinisches Denken, Gesprächsführung und das eigene Erleben des Szenarios. Die Ergebnisse stehen anschließend der Supervisorin oder dem Supervisor zur Bewertung zur Verfügung.

Bewertungs-Dashboard für Supervisoren

Supervisoren erhalten Zugriff auf studentische Aufzeichnungen, Selbsteinschätzungen und den Abschlussstatus aller Lernpfade – inklusive sämtlicher Anmerkungen der Studierenden. Das ermöglicht ein evidenzbasiertes Feedback und eine durchgängige Bewertungssicht.

PDF-Zertifikat

Nach Abschluss eines Lernpfads erzeugt die Anwendung programmatisch ein herunterladbares PDF-Zertifikat – serverseitig mit einer PHP-basierten PDF-Bibliothek.

API-Integrationsschicht

Eine dokumentierte, universelle Provider-Schnittstelle abstrahiert die Anbindung an den Videodienst. Aktuell ist Synthesia angebunden – die Schnittstelle ist auf Erweiterbarkeit ausgelegt: Ein alternativer Anbieter lässt sich mit minimalem Implementierungsaufwand integrieren, sei es wegen Content-Policy-Beschränkungen, Einstellung des Dienstes oder eines Anbieters, der besser zu klinischen Inhalten passt.

Ihr Anliegen, unsere Priorität

Haben Sie ein Projekt? Sprechen wir darüber

  • Wir liefern ergebnisorientiert und meilensteinbasiert
  • Ein erfolgreiches Projekt ist Teamarbeit auf Augenhöhe
  • Volle Kundenunabhängigkeit – kein Vendor-Lock-in
  • Kostenlose Erstberatung innerhalb von 24 Stunden

Ihr Ansprechpartner

Chris Wolf, CEO Laramate GmbH
Chris Wolf
Geschäftsführer, PHP Senior-Entwickler