Millioner bruger allerede chatbots som skyggeterapeuter
Det er ikke et spørgsmål om hvornår, men om hvor mange. Internationale tal viser, at hver tredje har søgt hjælp hos en chatbot, og alene OpenAI modtager hver uge over en million beskeder med indikationer på selvmordstanker. I Danmark får de fleste borgere nu AI-genererede svar på deres spørgsmål om sundhed.
Forestil dig en terapeut, der altid har tid til dig. En, der aldrig dømmer dig, uanset hvad du fortæller, og som svarer dig klokken tre om natten, når tankerne myldrer.
Terapeutisk brug af chatbots defineres her som en simuleret, dialogbaseret interaktion med kunstig intelligens (AI), hvor brugeren søger mental lindring, indsigt eller støtte.
Feltet er bredt, og det inkluderer blandt andet:
- Specialiserede terapeutiske chatbots: Designet specifikt til mental sundhed (fx Woebot eller Wysa). De følger kliniske rammer og evidensbaserede metoder som kognitiv adfærdsterapi.
- Generelle sprogmodeller (generativ AI): Modeller som ChatGPT eller Claude, der ikke er skabt til terapi, men som gennem brugerens egne instruktioner (prompting) anvendes til ureguleret ’skygge-terapi’.
- AI-søgemaskiner: Fx Google (AI Overviews) og Bing (Copilot), der via AI opsummerer information direkte i søgeresultatet, og som ofte er brugerens første indgang til hjælp.
Det lyder som en drøm i et sundhedsvæsen, hvor op mod 85 procent af folk med mentale problemer på verdensplan ikke modtager behandling på grund af mangel på ressourcer.
I Danmark viser tal, som DR indsamlede i 2024, at psykiaternes såkaldte maksimale estimerede ventetid i gennemsnit er steget fra 24,6 uger i 2018 til 80 uger i 2024.
Millioner af brugere
Men hvor mange bruger så chatbots terapeutisk? Virkeligheden er, at millioner af mennesker allerede gør det.
På sociale medier som Facebook og Reddit beskriver brugere, hvordan chatbots hjælper dem med alt fra at håndtere angst og OCD til at simulere svære samtaler eller blot fungere som en hjælper til dagligdags ting, der kan være udfordrende.
Da brugen af kunstig intelligens til mental sundhed er et relativt nyt fænomen, er det svært at finde præcise og valide tal for omfanget. Men nogle kilder giver en indikation:
- En undersøgelse lavet af Mental Health UK, som er en af de største britiske organisationer, der arbejder med mental sundhed, viser, at mere end hver tredje (37 procent) har brugt chatbots som støtte til deres mentale helbred eller trivsel. Blandt de 25-34-årige er det helt op mod 64 procent.
- OpenAI, som står bag ChatGPT, oplyste i oktober 2025, at "over en million brugere (0,15 procent) hver uge sender beskeder, der indeholder tydelige indikationer på potentiel selvmordsplanlægning eller -hensigt."
- Som en direkte reaktion på, at millioner af mennesker allerede bruger ChatGPT som en "skyggeterapeut" eller medicinsk rådgiver, lancerede OpenAI ChatGPT Health i januar 2026. Den er endnu ikke lanceret i Danmark.
Artiklen fortsætter under boksene ...
Sådan bruger to danskere ChatGPT
Dansk hvidbog: De fleste møder nu et AI-genereret svar
De nyeste danske tal viser samme mønster.
I en hvidbog som Center For Digital Psykiatri offentliggjorde i februar 2026 konkluderes det, at generativ AI (generelle sprogmodeller) nu dominerer danskernes søgen efter sundhedsinfo.
Og at de fleste borgere i dag møder et AI-genereret svar, når de søger efter viden om sundhed.
Her er nogle udvalgte tal fra hvidbogen:
- I 2025 søgte 77 procent af danskerne efter sundhedsinformation online. 41 procent søgte specifikt på mental sundhed.
- I 2025 bruger næsten 50 procent af befolkningen (16-74 år) generative AI-værktøjer.
- Et tysk studie viser, at Google nu leverer AI-svar (AI-overblik) på 82 procent af alle søgninger om sundhed. Og en del brugere nøjes med AI-svaret, uden at besøge de bagvedliggende kilder.
Du kan finde hvidbogen her: Center for Digital Psykiatri: Sådan ændrer AI danskernes søgen efter mental sundhed
- Brug gerne en chatbot til generel information eller som en sparringspartner. Men se den som et værktøj – ikke som rådgivning eller behandling.
- Undgå at taste symptomer ind for at få en diagnose. Hvis du er i tvivl om, hvorvidt du har en psykisk sygdom eller reagerer stærkt på noget i dit liv, bør du tale med et menneske.
- Tal med et menneske, hvis du har det svært. Et menneske kan lytte, stille opfølgende spørgsmål og hjælpe dig med at forstå det, der ligger bag dine tanker og følelser.
- Vær opmærksom på, at en chatbot kun kan reagere på det, du selv skriver. Den kan ikke opfange kropssprog, tonefald eller ændringer i din vejrtrækning og stemme.
- Husk, at problemer ofte viser sig at handle om noget andet end det, man først fortæller. Den slags bliver ofte tydeligt gennem dialog med et menneske.
- Søg hjælp hos mennesker, du har tillid til. Det kan være familie, venner, din læge eller rådgivere med faglig baggrund.
Du kan også kontakte Psykiatrifondens rådgivning. Rådgivningen er gratis og anonym, og du taler med rådgivere med relevant faglig baggrund.
Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.
Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.
Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.
Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.
Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.
Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.
Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.