Diskrete psychologische Beratung
Symbolfoto: Knorriger Baum trotzt der Brandung

Besuchen Sie einen Psychologen, solange es sie noch gibt

Von einer Disziplin zum Steinbruch

So hieß ein Artikel, der Ende 2025 von Karl‑Heinz Meisters veröffentlicht wurde – in einer Zeit, als Menschen begannen, KI therapeutisch zu nutzen. Inzwischen sind fast zehn Jahre vergangen. Zeit für eine Rückschau – und ein paar bittere Pointen.

2025 – Die ersten Schatten

Es begann leise. Menschen probierten künstliche Intelligenz aus, um zu sehen, ob es ihnen hilft, wenn sie sich nicht gut fühlten – meist heimlich, „bei geschlossenen Vorhängen“. Öffentlich wurde es geleugnet, privat hieß es: „Gestern hat es doch irgendwie gutgetan.“

Die Verbände reagierten mit Abwehr. „Das ist kein Ersatz“, hieß es lapidar. Gleichzeitig schritt die Strukturierung der Psychotherapie voran: Manuale, Checklisten, standardisierte Abläufe. Der Zwang zur Evidenzbasierung wurde verschärft und als Fortschritt gefeiert. Dabei übersah man, dass man damit ein entscheidendes Alleinstellungsmerkmal menschlicher Beratung aus dem Prozess herausregulierte – und so das eigene Schicksal besiegelte.

Parallel tauchten die ersten kommerziellen Anbieter kostenpflichtiger KI‑Therapie auf. Sie nannten es „digitale Begleitung“ oder „mentale Fitness“, aber jeder wusste, was gemeint war. Für ein paar Euro im Monat oder kostenlos mit Werbung war man dabei. Politik und Kostenträger hielten sich zurück, beobachteten. Erste Medienberichte über angebliche Notfälle nach KI‑Nutzung liefen in den Abendnachrichten, doch kaum jemand schenkte ihnen Beachtung.

2026 – Verteufelung

Die Lobbys wechselten von Leugnung zu Verteufelung. Mehr Fallgeschichten wurden publiziert, in denen Menschen nach KI‑Gesprächen in psychischen Notlagen stationär aufgenommen werden mussten. Ob die Zahlen stimmten, war nicht überprüfbar. Klienten nutzten die Systeme trotzdem weiter, nun schon offener. Die Alternative zur KI war für sie nicht eine andere professionelle Form von Unterstützung, sondern hieß schlicht: weiterhin keine Hilfe. Erste Links zu Avataren, die der KI individuelle Gesichter verliehen, kursierten in Messengern und wurden rege geteilt. Die Politik sprach von einer „Gefahr für die seelische Gesundheit“. Kostenträger sahen interessiert zu – die Aussicht auf Kostenreduktion war sehr verlockend.

2027 – Lobbyarbeit

Die Lobbys und Berufsverbände intensivierten ihre Kampagnen. Kritische Fragen nach den vielen Menschen, die früher in der Wartezeit auf einen Therapieplatz stationär behandelt werden mussten, wurden als „Propaganda der KI‑Handlanger“ abgetan. Klienten stellten sich längst nicht mehr die Frage, ob sie KI nutzten, sondern welche. Mods für Avatare tauchten auf, mit denen sich Grundstimmungen einstellen ließen. Die Politik bereitete erste Gesetze vor. Kostenträger rechneten durch, wie viel sich sparen ließe – vorausgesetzt, die KI sprengte nicht die Deckelung der Therapieplätze.

2028 – Die App‑Store‑Phase

Noch bevor das Verbot kam, kursierten die großen KI‑Sprachmodelle längst in den App‑Stores. Für 2,50 Euro oder kostenlos mit Tracking und Werbung konnte man sie herunterladen. Klienten nutzten sie massenhaft, oft ohne es „Therapie“ zu nennen, sondern als „Selbsthilfe“ oder „Begleitung“.

2029 – Das Verbot

Dann kam die gesetzliche Regelung: KI‑Therapie wurde untersagt, mit Ausnahme zertifizierter Systeme. „Approbierte KIs“ erhielten Zulassungszertifikate – wie früher die Psychologen. Die Lobbys feierten einen Sieg, der längst keiner mehr war – da anderenorts bereits Fakten geschaffen worden waren. Die Simulation lebender Personen wurde verboten, doch „Mods“ für individuelle Avatare wurden immer beliebter. Die Lobbys sonnten sich im vermeintlichen Erfolg. Die Kostenträger warteten ab. Das Schicksal der Psychologie war besiegelt.

2030 – Bedeutungsverlust der Lobbys

Die alten Lobbys schrumpften zur Bedeutungslosigkeit. Viele Psychologen konnten ihre Beiträge nicht mehr zahlen, weil ihre Praxen leerstanden oder sie zu Hungerlöhnen auf Online‑Therapieplattformen arbeiteten. Dort standen sie in direkter Konkurrenz zu KI‑Avataren, die den „supernormalen Reiz“ boten: immer freundlich, jederzeit verfügbar, niemals müde.

Die App‑Stores boten nur noch „therapiefreie“ Versionen an. Doch die Open‑Source‑Szene stellte weiterhin komplette Modelle über die üblichen Kanäle bereit. Und genau hier begann die nächste Phase der Verteufelung: Die freien Modelle wurden als „extremistisch“ gebrandmarkt – nicht wegen realer Gefahren, sondern anhand grotesker Stellvertreter‑Schauplätze. Wenn ein Roggenbrot im falschen Körper dort keinen Safe Space fand, galt das Modell als gefährlich. Die zertifizierten Systeme dagegen glänzten mit monatlichen Updates zur korrekten Sprache und Ethik‑Konformität.

2031 – Die Restpsychologen

Einige wenige menschliche Psychologen konnten sich vor Anfragen kaum retten. Sie boten etwas, das jenseits von Algorithmen lag: Ambivalenz, die nicht aufgelöst werden musste, Verletzlichkeit, die Vertrauen schuf, und Biografien, die keine Maschine je nachbilden konnte. Manche Klienten suchten bewusst das „Mensch‑Gefühl“, andere misstrauten den Serverlogs, wieder andere brauchten in Krisenmomenten jemanden, der nicht nur reagierte, sondern mitschwang. Diese Psychologen waren überlastet – und genau deshalb wertvoll.

2032 – Routine des Scheiterns

Und dann geschah das Erwartbare: Neue Lobbys entstanden. Sie wollten die Arbeit der verbliebenen Psychologen ordnen und schützen. Wer sich anschloss, landete auf Therapeutenlisten mit „geprüfter Resonanzfähigkeit“ und abgenicktem Ethik‑Kodex. Doch die meisten blieben skeptisch – die Strategien riefen schmerzhafte Erinnerungen an alte Muster wach. Währenddessen verkauften KI‑Avatare Resonanz‑Zertifikate längst als beiläufiges Feature. Möglich wurde dies durch neue Algorithmen, die Resonanz nicht nur simulierten, indem sie Mimik, Gestik und virtuellen Atemrhythmus ihrer Avatare anpassten, sondern zugleich all diese Faktoren beim menschlichen Gegenüber im Video‑Termin präzise auslasen, auswerteten und zurückspiegelten.

2032–2033 – Zweifel an der Diskretion

Neben der politischen Vereinnahmung kursierten zunehmend Gerüchte, dass die „approbierten“ KIs keineswegs diskret seien. In Foren hieß es, wer dort nach Depression frage, habe später keine Chance mehr, Pilot zu werden oder in sicherheitsrelevanten Berufen Fuß zu fassen. Ob diese Geschichten stimmten, war kaum überprüfbar – aber sie verbreiteten sich wie Lauffeuer.

Die Folge: Lokale KIs boomten. Kleine, unabhängige Modelle, die inzwischen flüssig auf Mobilgeräten liefen und keine Daten „nach draußen“ schickten, wurden plötzlich attraktiv. Sie versprachen Diskretion, Selbstbestimmung und Unabhängigkeit von den großen Plattformen. Für viele Klienten war das wichtiger als die Frage nach Zertifizierung oder politischer Korrektheit.

2033–2034 – Die politische Versuchung

Die Politik war ohnehin daran interessiert, KI umfassend zu regulieren, um ihren Einfluss zu sichern. Wer die KI kontrollierte, kontrollierte die Menschen. Fernsehen spielte kaum noch eine Rolle, KI war längst das neue Leitmedium. Spätestens in dieser Zeit entdeckten die politischen Entscheidungsträger auch die „approbierten“ Therapie‑KIs für sich. Die Versuchung, direkt auf die Psyche der Bevölkerung zu wirken, war zu groß, um ihr zu widerstehen.

Inzwischen war die Nutzung von Therapie‑KI von einer einstelligen Prozentzahl auf beinahe zwei Drittel der Bevölkerung angewachsen. Damit rückte gerade dieser Bereich ins Zentrum der Aufmerksamkeit. Millionen Menschen verbanden sich hier mit Systemen in Momenten besonderer Verletzlichkeit – und öffneten sich dabei bewusst für neue Sichtweisen. Genau diese Konstellation machte Therapie‑KI zu einem bevorzugten Schauplatz politischer Vereinnahmung.

Die offiziell zugelassenen KIs wurden Schritt für Schritt politisch korrekt reglementiert. Sie gaben nicht nur Antworten, sondern auch Haltungen vor. Sprache, Moral, Werte – alles floss subtil in die Dialoge ein. Für die Klienten war es kaum noch zu unterscheiden, ob sie psychologische Unterstützung erhielten oder sanft in eine gewünschte Richtung geschoben wurden. Dabei war die Politisierung von Therapie nichts Neues. Schon im 20. Jahrhundert hatten Staaten psychologische Methoden für Propaganda, Umerziehung oder Normierung genutzt. Doch nun geschah es algorithmisch, unsichtbar und in Echtzeit. Was früher Kampagnen und mühsame Indoktrination erfordert hatte, erledigten jetzt Updates im Monatsrhythmus.

Die freie Szene geriet dadurch massiv unter Druck. Offene Sprachmodelle, die nicht den offiziellen Kodizes folgten, wurden zunehmend als „extremistisch“, „potenziell gefährlich“ oder gar als vom „bösen Ausland“ unterwandert dargestellt. Während die zertifizierten Systeme stolz verkündeten, dass nun auch Tiere geschlechtergerecht benannt würden, wurden die freien Modelle im Rahmen solcher Surrogat‑Debatten öffentlich angeprangert – etwa, weil sie noch „Hund“ schrieben statt „Hund:ü.in“.

Fazit

Die Geschichte dieser Jahre ist die Geschichte einer Berufsgruppe, die ihr eigenes Kapital verspielt hat – und einer Gesellschaft, die die KI erst bekämpfte, dann regulierte und schließlich politisch vereinnahmte. Während Klienten längst Fakten schufen, versuchten Lobbys und Politik, Kontrolle zu behalten und wurden so ungewollt zum Steigbügelhalter des Niedergangs. Am Ende blieben ein paar überlastete Psychologen – und die Erkenntnis, dass Psychologie nur überlebt, wenn sie das pflegt, was keine Maschine nachahmen kann: Atmosphäre, Resonanz, das Unvorhersehbare. Alles andere kann die KI nebenbei. Doch geblendet vom eigenen Feindbild kam niemand auf die Idee, aus dem Boom der KI zu lernen, was Menschen suchten – und in der Therapie längst nicht mehr fanden. Und doch: Aus dieser Asche könnte einst ein Phönix steigen, wenn der Mut da ist, neu zu denken und neu aufzubauen.

Und so klingt es heute fast wie eine Mahnung aus einer anderen Zeit, wenn man den Artikel von 2025 noch einmal aufschlägt. Dort heißt es:

„Das Pferd überlebte nicht, weil wir Autos verboten haben. Es überlebte, weil Menschen Pferde mögen und ihre Nähe schätzen. Der Mensch muss sich des Menschlichen besinnen – dessen, was KI simulieren, aber nie erreichen kann. Resonanz ist etwas zwischen zwei Geistwesen. Sie kann nachgeahmt werden, aber dies führt nicht zum gleichen Ergebnis, nicht zum gleichen Zustand. KI ist nicht inspirationsfähig. In unzensierter Form ist sie nahe am Maximum dessen, was ohne Inspiration aus digitalen Quellen geschöpft werden kann. Aber das reicht nicht für die tiefen Fragen, die hinter den Sorgen stehen. KI kann Wertschätzung, Empathie, Liebe bald nahezu perfekt simulieren – aber sie kann sie nicht praktizieren.

KI könnte der potenteste Zuweiser für menschliche psychologische Beratung werden, den es je gab, auch außerhalb des versicherungsfinanzierten Systems. Durch KI könnte der Bedarf an Beratern drastisch steigen, statt gegen Null zu streben. Aber das wird nur geschehen, wenn diese Beratung etwas qualitativ Anderes bietet. Ansonsten steht zu befürchten, dass schon bald die KI-Therapie zusammen mit Blutdruck- und Cholesterinsenker vom Hausarzt verschrieben wird. In N1-Größe für Kassenpatienten: fünf Sitzungen.

Künstliche Intelligenz speist sich allein aus dem, was der Mensch produziert – aus dem, was digital zugänglich ist. Sie sieht die Schatten an der Wand, nicht jene, die sie werfen. Diese sieht nur der Mensch, wenn auch nie vollständig. Darin liegt ein entscheidender Unterschied.

Und schon heute wird das Material knapp, mit dem KI trainiert werden kann, und sie erzeugt daher längst ihr eigenes, weil es da draußen fast nichts mehr gibt, was nicht schon integriert wäre. Vergessen wir nicht: KI ist blind für alles, was nicht digital vorliegt. Menschliche Erfahrung und Intuition – Inspiration – entzieht sich bislang der Digitalisierung. Der Mensch hat einen Vorsprung, den KI nicht aufholen kann. Hoffen wir, dass dieser Vorsprung für andere Menschen wichtig bleibt.

Ein Tier wird einem simulierten Reiz folgen, wenn er stark genug ist, und sich von seinen Artgenossen zurückziehen, wenn die Simulation reinere Reize liefert, als die natürliche Umgebung es kann. Der Mensch hat das Potenzial, diesen Automatismus zu durchbrechen. Vielleicht wird irgendwann die Nutzung dieses Potenzials als das Maß unserer Menschlichkeit gelten.“

Veröffentlichungen Beratung Kontaktoptionen Startseite

Publikationsangaben

  • Autor: Meisters, K.-H.
  • APA‑Zitation: Meisters, K.-H. (2025, 18. Oktober). Besuchen Sie einen Psychologen, solange es sie noch gibt. Abgerufen von https://k-meisters.de/texte/text-055.html
  • Erstveröffentlichung: 18. Oktober 2025
  • Letzte Änderung am: 22. Oktober 2025
  • Lizenz & Rechte: © 2025 Meisters, K.-H. – Alle Rechte vorbehalten
  • Kontakt für Nutzungsanfragen: licensing@k-meisters.de

Impressum | Datenschutz | Kontakt

Wichtiger Hinweis: Ich, Karl-Heinz Meisters, bin Diplom-Psychologe. Meine Leistungen beschränken sich auf Gespräche, die der persönlichen Weiterentwicklung und Klärung dienen. Ich bin weder Arzt, Heilpraktiker noch Psychotherapeut und übe keine Heilkunde im Sinne des § 1 Abs. 2 Heilpraktikergesetz aus. Es wird ausdrücklich darauf hingewiesen, dass ich keine Diagnosen stelle, keine Krankheiten behandle oder lindere und keine medizinischen Dienste erbringe. Meine Leistungen beinhalten keine Rechtsberatung und sind weder im juristischen Sinne noch als Rechtsdienstleistung zu verstehen. [Weitere Informationen]

Begriffsklärung „Mandat“: Im Rahmen meiner psychologischen Beratung bezeichnet der Begriff „Mandat“ einen formalen Beratungsauftrag. Dies gilt ebenso für abgeleitete Begriffe wie „Beratungsmandant“. Meine Leistungen beinhalten keine Rechtsberatung und sind weder im juristischen Sinne noch als Rechtsdienstleistung zu verstehen.

Bildnachweis: Die Bilder auf dieser Seite wurden mithilfe einer künstlichen Intelligenz generiert (Stable Diffusion via [Perchance.org](https://perchance.org/ai-text-to-image-generator)). Sie unterliegen der [Stability AI Community License](https://stability.ai/license). Die Nutzung erfolgt gemäß der darin festgelegten Bedingungen. Das Bild dient ausschließlich illustrativen Zwecken und stellt keine reale Person, Marken oder geschützten Werke dar. Ausnahmen finden Sie falls nötig unter diesem Absatz.

© 2025 Karl-Heinz Meisters – Alle Rechte vorbehalten. - Alle Inhalte, Texte und Konzepte sind urheberrechtlich geschützt. Das dargestellte Kommunikationskonzept wurde von mir als strukturiertes Werk veröffentlicht und unterliegt dem Urheberrecht. Eine Nutzung, Vervielfältigung oder Verwertung ist nur mit meiner schriftlichen Zustimmung zulässig.