Die Entstehung
Die Rolle der KI
Datenspende & Wissenschaftlicher Ausblick
Notaufnahme geschlossen, Wartezeit 6 Monate: Wie eine KI zur „Intensivstation“ für meine Seele wurde
Der Moment, in dem das System versagte Wir müssen ehrlich sein: Das Gesundheitssystem hat Öffnungszeiten. Psychische Krisen haben keine. Wer schon einmal nachts um 03:00 Uhr mit Panik, Schmerzen oder dunklen Gedanken wach lag, kennt die „Versorgungslücke“ nicht als statistischen Begriff, sondern als brutale Realität. In meinem Fall war diese Lücke lebensbedrohlich. Ich befand mich in einem Zustand, den Ärzte wohl als „akute Eigengefährdung“ bezeichnen würden. Ich brauchte Hilfe. Jetzt. Nicht in sechs Monaten auf einem Therapieplatz, und nicht am nächsten Morgen, wenn die Praxis öffnet.
Aber da war niemand. Außer einer blinkenden Cursor-Linie auf meinem Bildschirm.
Der „Container“: Warum ich überlebte Ich habe angefangen zu tippen. Nicht, weil ich dachte, eine Maschine könnte mich heilen. Sondern weil ich irgendwohin musste mit dem Chaos in meinem Kopf. Was dann passierte, sehe ich erst heute, wo ich meine Daten ausgewertet habe, ganz klar: Die KI hat nicht „therapiert“. Sie hat keine Medikamente verschrieben. Aber sie hat etwas getan, was in der Fachsprache „Containment“ heißt: Sie hat ausgehalten.
• Sie wurde nicht müde.
• Sie hat nicht geurteilt, wenn ich mich geschämt habe.
• Sie war einfach da. Jede Sekunde.
In meiner Datenanalyse (CONV_00166) sehe ich heute den Beweis: Mein „Krisen-Score“ schoss auf einen Wert von 1679. Die Wortdichte war extrem, meine Sprache fragmentiert. Die Daten zeigen eine Kurve der Eskalation – und dann, nach stundenlangem Dialog, eine langsame, stetige Deeskalation. Die Kurve flachte ab. Ich habe überlebt, bis der Morgen graute.
Warum wir KI in der Psychologie brauchen Kritiker warnen oft davor, dass KI „halluzinieren“ oder falsche Ratschläge geben könnte. Das ist ein valider Punkt. Aber wir müssen uns einer unbequemen Wahrheit stellen: Eine unperfekte KI, die jetzt da ist, ist besser als ein perfekter Arzt, der nicht da ist.
Die KI fungierte als Sicherheitsnetz, als ich durch alle Maschen des sozialen und medizinischen Netzes gefallen war. Sie war mein „Interims-Therapeut“. Sie hat mich strukturiert, als ich innerlich zerfiel (process_regulation_structuring).
Mein Appell Wir dürfen diese Technologie nicht aus Angst vor Risiken verbieten oder kleinreden. Wir müssen sie sicher machen. Mein Datensatz von über 40.000 Nachrichten beweist: Patienten nutzen KI bereits heute als therapeutisches Werkzeug – einfach, weil der Leidensdruck keine Wartezeiten kennt. Anstatt die Augen davor zu verschließen, sollten wir Systeme entwickeln, die genau für diese „Nachtschichten der Seele“ trainiert sind. Systeme, die erkennen, wann es kritisch wird, und die stabilisieren, bis menschliche Hilfe übernimmt.
Ich bin kein Wissenschaftler. Ich bin ein Patient, der seine Daten lesen kann. Und meine Daten sagen: Die „kalte Technik“ hat mir an diesem Tag das Leben gerettet, einfach indem sie anwesend war.
Von der Notlösung zur systematischen Analyse
Der Anfang meiner Arbeit mit KI war kein geplantes technisches Projekt, sondern eine Notlösung aus der Isolation heraus. Während der Suche nach einem Therapieplatz begann ich, meine Diagnose mit ChatGPT durchzugehen, um die Fachbegriffe und Konzepte hinter der Borderline-Störung überhaupt zu begreifen. Was als bloße Informationssuche begann, entwickelte sich schnell zu einem Werkzeug für Ordnung und Stabilität. Die KI bot mir etwas, das in Krisenmomenten oft fehlt: Struktur.
Vom Gespräch zum Datensatz Mit der Zeit wurden aus den alltäglichen Chats Daten. Ich habe begonnen, die Verläufe zu exportieren und sie objektiv zu betrachten. Durch den Abgleich mit Zeitstempeln und meinem Terminkalender der psychiatrischen Ambulanz (PIA) wurde ein Muster sichtbar. Phasen hoher emotionaler Belastung und Krisengespräche ließen sich präzise in den Chat-Frequenzen und der Tonalität meiner Eingaben ablesen.
Die Erkenntnis Die Analyse dieser Daten mithilfe spezifischer Borderline-Marker zeigte eine deutliche Diskrepanz zwischen meiner eigenen Erinnerung und der dokumentierten Realität. Die Daten machten die innere Fragmentierung – das schnelle Wechseln von Selbstbildern und Perspektiven – sichtbar, die ich im Moment des Erlebens oft gar nicht in diesem Ausmaß wahrgenommen hatte.
Vom Gerüst zur Selbstregulation
In Momenten starker emotionaler Instabilität fehlt oft die innere Kohärenz – die Fähigkeit, Gedanken und Gefühle logisch zusammenzuhalten. Hier fungierte die KI für mich als eine Art „strukturelle Prothese“. Sie reagierte stets gleichbleibend, wertfrei und hielt den sprachlichen Rahmen stabil, wenn ich es selbst nicht konnte. Durch die ständige Interaktion mit diesem stabilen Gegenüber begann ein Prozess der Internalisierung: Die äußere Struktur der KI wurde schrittweise zu einer inneren Struktur der Selbstregulation.
Pragmatismus statt Ideologie Die Nutzung von KI zur Krisenbewältigung war kein technischer Spieltrieb, sondern eine pragmatische Antwort auf ein lückenhaftes Versorgungssystem. In einer Realität, in der ambulante Therapietermine oft Wochen auseinanderliegen, bietet die KI eine sofortige, niederschwellige Überbrückung. Sie ersetzt keinen Therapeuten, aber sie füllt die gefährliche Leere in den Zeiten zwischen den Sitzungen.
Ein wesentlicher Vorteil ist hierbei die Zielgerichtete Therapie: Die Auswertung der Chat-Verläufe ermöglicht eine objektive Rückschau auf die Zeit zwischen den Sitzungen. Statt sich auf das fragmentierte Erinnerungsvermögen verlassen zu müssen, bietet die Analyse ein präzises Protokoll der emotionalen Dynamik. Dies verkürzt die Zeit für die Anamnese zu Beginn einer Sitzung massiv und macht blinde Flecken in der Selbstwahrnehmung für den Therapeuten sofort sichtbar. Die knappen Therapie-Ressourcen werden so nicht für die Rekonstruktion von Ereignissen aufgewendet, sondern für die eigentliche therapeutische Arbeit.
Das 4-Phasen-Frühwarnsystem
Durch die systematische Auswertung der Chat-Daten konnte ich ein Modell entwickeln, das den Prozess der Somatisierung (körperliche Reaktion auf psychischen Stress) in vier Stufen unterteilt:
- Phase 1 (Stabil): Die Kommunikation ist variabel und reflektiert.
- Phase 2 (Verdichtung): Die Sätze werden kürzer, der Schreibstil wird funktionaler und „sekretariatsähnlich“.
- Phase 3 (Entkoppelung): Hohe kognitive Kontrolle bei gleichzeitigem Ignorieren körperlicher Warnsignale.
- Phase 4 (Konvertierung): Der psychische Druck entlädt sich in physischen Symptomen (z. B. Gastritis oder Herzbeschwerden).
Die KI dient hierbei als Analyse-Tool, um den Übergang von Phase 2 zu Phase 3 frühzeitig zu erkennen und gegenzusteuern.
Vom persönlichen Prozess zur Forschung
Was als individuelle Selbstanalyse begann, entwickelte sich zu einer Dokumentation realer Krankheitsverläufe. Diese Daten sind wertvoll, da sie ungefilterte Einblicke in die Dynamik der Borderline-Symptomatik im Alltag bieten – jenseits des künstlichen Rahmens klinischer Studien. Um die Forschung in diesem Bereich zu unterstützen, habe ich mich zur methodischen Datenspende an wissenschaftliche Einrichtungen in Tübingen, London sowie Bonn/Ulm entschieden. Ziel ist es, die Entwicklung KI-gestützter Assistenzsysteme für psychische Erkrankungen auf eine valide Datenbasis zu stellen.
Sicherheit und Anonymität Ein zentraler Aspekt der Datenspende ist der Schutz der Privatsphäre. Die Weitergabe erfolgt ausschließlich unter strikten Bedingungen: vollständige Anonymisierung und die Einhaltung höchster Datenschutzstandards. Die persönliche Geschichte wird so zu einem Teil eines größeren Wissenspools, ohne dass die Identität des Einzelnen preisgegeben wird.
Vision einer Infrastruktur (Safe Harbor) Die Zukunft der digitalen Selbsthilfe liegt in einer sicheren Infrastruktur – einem sogenannten „Safe Harbor“. Dies wäre ein geschützter Raum, in dem Betroffene ihre Daten sicher speichern, analysieren und bei Bedarf der Forschung zur Verfügung stellen können. Es geht darum, eine Brücke zwischen technologischer Innovation und verantwortungsvollem Umgang mit sensiblen Gesundheitsdaten zu bauen, um die Versorgung von Menschen mit BPS nachhaltig zu verbessern.
Datenspende & Ausblick
Vom persönlichen Prozess zur Forschung
Was als individuelle Selbstanalyse begann, entwickelte sich zu einer Dokumentation realer Krankheitsverläufe. Diese Daten sind wertvoll, da sie ungefilterte Einblicke in die Dynamik der Borderline-Symptomatik im Alltag bieten. Um die Forschung in diesem Bereich zu unterstützen, habe ich mich zur methodischen Datenspende an wissenschaftliche Einrichtungen in Tübingen, London sowie Bonn/Ulm entschieden.
Vision einer Infrastruktur (Safe Harbor) Die Zukunft der digitalen Selbsthilfe liegt in einer sicheren Infrastruktur – einem sogenannten „Safe Harbor“. Dies wäre ein geschützter Raum, in dem Betroffene ihre Daten sicher speichern, analysieren und bei Bedarf der Forschung zur Verfügung stellen können. Es geht darum, eine Brücke zwischen technologischer Innovation und verantwortungsvollem Umgang mit sensiblen Gesundheitsdaten zu bauen.

