KI-Chatbots - Eine persönliche Einordnung aus MHFA- und PSNV-Sicht

Vor einigen Wochen habe ich KI-Chatbots wie Therabot, Wysa, Woebot und Replika aus Design- und UX-Perspektive betrachtet. Heute möchte ich bewusst die Perspektive wechseln.

Hier schreibe ich nicht als Designer – auch wenn ich diesen Blick nie ganz ablegen kann. Sondern als jemand, der sich mit mentalen, seelischen und psychosozialen Belastungen beschäftigt. Als MHFA-Ersthelfender. Mit Einblicken aus der PSNV.

Die Frage ist nicht, ob diese Systeme technisch beeindruckend sind. Die Frage ist: Was bedeuten sie für Menschen in echten Krisen?

Und noch grundlegender: Verstehen wir KI als Ergänzung – oder als Ersatz?


Warum KI-Chatbots relevant sind

Psychische Belastungen nehmen zu. Gleichzeitig sind Versorgungsangebote überlastet. Wartezeiten auf Therapieplätze, Stigmatisierung, Unsicherheit im Umgang mit eigenen Symptomen – viele Menschen bleiben lange allein mit dem, was sie belastet.

Hier setzen KI-Chatbots an. Sie sind:

  • 24/7 verfügbar
  • anonym nutzbar
  • niedrigschwellig
  • ohne Termin oder Wartezeit erreichbar

Für viele ist das kein technisches Detail, sondern eine reale Zugangserleichterung.

Gerade für Menschen mit Hemmungen, sich jemandem anzuvertrauen, kann ein Chatbot ein erster Schritt sein. Er kann:

  • Gedanken strukturieren
  • Selbstreflexion fördern
  • psychoedukative Inhalte vermitteln
  • Coping-Strategien trainieren

In diesem Rahmen sehe ich durchaus Potenzial.


Was „Unterstützung“ aus MHFA- und PSNV-Sicht bedeutet

In der MHFA-Ausbildung und in der PSNV lernen wir keine Therapie. Wir sind keine Therapeutinnen. Wir sind Ersthelfende, Peers, Kolleginnen – wir sind Menschen, die da sind.

Wir lernen Haltung. Wahrnehmung. Verantwortung.

Dazu gehört:

  • aktives Zuhören
  • nicht bewerten
  • Sicherheit einschätzen
  • professionelle Hilfe vermitteln

In der PSNV kommt hinzu:

  • situatives Erfassen von Dynamiken
  • nonverbale Wahrnehmung
  • Kriseneinschätzung
  • Verantwortung im Moment

Unterstützung bedeutet hier nicht nur Gespräch – Sie bedeutet Beziehung  –  Und Beziehung ist mehr als sprachliche Angemessenheit.
Ein Chatbot kann empathisch formulieren  –  Aber er trägt keine Verantwortung für eine konkrete Situation.
Das ist kein Vorwurf. Es ist eine strukturelle Grenze. Und diese Grenze darf man nicht aus dem Blick verlieren.



Wo ich reale Chancen sehe

Aus meiner Sicht haben KI-Chatbots drei sinnvolle Einsatzfelder:

Frühintervention

Bei beginnenden Symptomen – Grübeln, leichte depressive Verstimmung, Angst – können strukturierte, CBT-basierte Tools hilfreich sein. CBT steht für Kognitive Verhaltenstherapie und unterstützt Menschen dabei, Gedankenmuster zu erkennen, zu hinterfragen und hilfreicher zu gestalten.

Überbrückung

Zwischen Therapiesitzungen oder während langer Wartezeiten können digitale Begleiter Stabilität unterstützen.

Psychoedukation

Viele Menschen wissen nicht, was mit ihnen passiert. Niedrigschwellige Information kann Orientierung geben und Selbstwirksamkeit stärken.

Das sind echte Chancen. Und sie sollten nicht ignoriert werden.

Erläuterung.
CBT steht für Cognitive Behavioral Therapy – auf Deutsch: Kognitive Verhaltenstherapie (KVT).



Wo ich Grenzen sehe

Aus MHFA- und PSNV-Perspektive gibt es jedoch klare Limitationen.

1. Akute Krisen

Suizidale Gedanken, akute Traumatisierung, schwere psychiatrische Zustände – hier braucht es menschliche Einschätzung, Absicherung und Weitervermittlung.
Ein Algorithmus kann keine Verantwortung übernehmen.

2. Scheinbare Nähe

Systeme, die emotionale Bindung fördern, können in vulnerablen Phasen problematisch sein – insbesondere wenn Beziehung als wechselseitig erlebt wird.

3. Fehlende Kontextwahrnehmung

Krisen sind nicht nur Text.
Sie sind Körperhaltung, Stimme, Atmosphäre, soziale Dynamik.

Diese Dimension bleibt digitalen Systemen verschlossen.



Die eigentliche Debatte

Die Diskussion wird häufig polarisiert geführt:

„KI rettet die mentale Gesundheit.“
oder
„KI entmenschlicht psychosoziale Arbeit.“

Beides greift zu kurz.

Die zentrale Frage lautet für mich in meinen Augen:

Wo endet digitale Unterstützung – und wo beginnt menschliche Verantwortung?

Als Ergänzung kann KI wertvoll sein.
Als Ersatz wird sie gefährlich vereinfachend.



Meine Haltung

Ich sehe KI-Chatbots nicht als Gegner psychosozialer Arbeit. Aber ich sehe sie auch nicht als Lösung. Ich sehe sie aktuell und für die Zukunft, wie ich hoffe, als gute Werkzeuge. Und Werkzeuge entfalten ihre Wirkung nur im richtigen Kontext.

Menschen in herausfordernden Situationen brauchen:

  • Zugang
  • Orientierung
  • Struktur
  • Beziehung
  • Verantwortung

KI kann Zugang erleichtern  –  Sie kann Struktur anbieten  –  Sie kann erste Orientierung geben.

Und weil sie rund um die Uhr verfügbar und anonym nutzbar ist, kann sie etwas leisten, was analoge Angebote oft nicht können: Sie kann niedrigschwellig auf regionale Hilfen hinweisen und im Ernstfall direkte Empfehlungen aussprechen.

Aber Beziehung und Verantwortung bleiben und sollten menschlich sein und bleiben.

Technologie darf und soll unterstützen. Doch wenn es existenziell wird, brauchen wir kein Interface  –  Wir brauchen ein Gegenüber einen  Menschen und Menschlichkeit.




Hilfe & Anlaufstellen (Deutschland)

Wenn du dich in einer akuten Krise befindest:

Notfall: 112 anrufen
Kriseninterventionsdienst, Notaufnahme einer psychiatrischen Klinik oder Hausarztpraxis kontaktieren.

TelefonSeelsorge
0800 111 0 111
0800 111 0 222
www.telefonseelsorge.de
Rund um die Uhr, kostenfrei und anonym.

KrisenKompass (App der TelefonSeelsorge)
Digitale Unterstützung mit Tagebuchfunktion, Notfallkoffer, stabilisierenden Übungen und direkten Kontaktmöglichkeiten.

Nummer gegen Kummer – Kinder- und Jugendtelefon
116 111
0800 111 0 333
www.nummergegenkummer.de
Mo–Sa, 14–20 Uhr

Muslimisches Seelsorgetelefon (MuTeS)
030 443 509 821
www.mutes.de
24/7 erreichbar

Hebräischsprachige Hotline „Matan“ (OFEK e. V.)
0800 000 16 42
Täglich 20:00–22:00 Uhr

Deutsche Gesellschaft für Suizidprävention
Übersicht regionaler Angebote:
www.suizidprophylaxe.de

Du bist nicht allein.
Es gibt Hilfe.
Und es darf dir wieder besser gehen.

Comments

Popular posts from this blog

Podcast-Tipp: Ärztlich assistierter Sterbehilfe – Erfahrungsbericht

Hilfe finden ...

Sterbehilfe - Organisation, Hilfe finden, Kosten

Sterbehilfe in Deutschland - Erläutert in 3 bis 4 Minuten (Lesezeit)

Q&A - Wo findet man Sterbehilfe in Deutschland?