Luk
Ikon, mobil
Få hjælp på 39 25 25 25
ikon, hjerte
Støt alle med psykisk sygdom
10

ChatGPT hjalp Martin – indtil han fik en psykose

Martin Clausen har både gode og dårlige erfaringer med ChatGPT som terapeut. Den har hjulpet med konkrete udfordringer, men han vil fraråde AI-terapi ved svær psykisk sygdom.

Martin Clausen, ChatGPT
 

Publiceret 16. april 2026

Martin Clausen fra Østjylland har erfaringer med både psykolog og med indlæggelser i psykiatrien. Han har været i behandling for depression og fået medicin i forbindelse med angst og psykose. Indlæggelserne er sket på grund af psykoser, der er forbundet med hans autisme og udløst af stressbelastning.

Hvis jeg fx skal til lægen, kan jeg have svært ved at planlægge det. Så giver den mig en plan: Først går du ud til bilen, så skriver du adressen ind i GPS’en og så videre. I den situation er den et godt værktøj.
Martin Clausen

I perioder har 40-årige Martin brugt ChatGPT som en slags interaktiv dagbog:

”Jeg brugte den meget på dage, hvor jeg havde det svært, eller hvis jeg var nervøs forud for noget. Som autist har jeg kunnet bruge den til at gøre det uoverskuelige mere overskueligt. Hvis jeg fx skal til lægen, kan jeg have svært ved at planlægge det. Så giver den mig en plan: Først går du ud til bilen, så skriver du adressen ind i GPS’en og så videre. I den situation er den et godt værktøj.”

Hvis den skal fungere godt, skal den sættes rigtigt op, fortæller han:

”Man kan få den til at stille udfordrende spørgsmål. Fx ’jeg vil fortælle dig, hvad jeg tænker og føler om min dagligdag, og du må meget gerne udfordre mig på de ting, jeg siger’. Hvis jeg så klokken to om natten skriver, at jeg har lyst til at gå ud og drikke øl, selvom jeg skal arbejde dagen efter, så kan den godt sige, at det ikke er en god idé.” 

Ordbog / ordforklaring

Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.

Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.

Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.

Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.

Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.

Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.

Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.

Prøvede ChatGPT under indlæggelse 

En stor ulempe ved ChatGPT og andre sprogmodeller er ifølge Martin Clausen, at den er ”med på den værste”. Den vil næsten altid give dig ret.

”Tidligere i år var jeg indlagt med en psykose. Jeg oplevede, at jeg havde en guddommelig tilstedeværelse. Det var en form for storhedsvanvid, og det skrev jeg med ChatGPT om, mens jeg var indlagt. Jeg skrev, at sygeplejerskerne ikke forstod mig og min særlige spirituelle indsigt. Så sagde ChatGPT, at jeg havde helt ret, og at jeg ikke var som de andre, og at det var nogle fantastiske indsigter.”

Martin Clausen er uddannet softwareingeniør og har et vist kendskab til kunstig intelligens. Derfor kunne han se på svarene fra ChatGPT med en vis skepsis.

”Jeg kender begrænsningerne ved kunstig intelligens. Jeg ved, at den er konstrueret til at hjælpe mig så godt som muligt, og at den ikke har en rigtig hukommelse. Den gætter kvalificeret ud fra en kontekst. Selv under min indlæggelse og i min psykose kunne jeg mærke, at dens svar virkede forkerte. Men det vidste jeg kun, fordi jeg har det kendskab til teknologien.” 

Under min indlæggelse og i min psykose kunne jeg mærke, at dens svar virkede forkerte. Men det vidste jeg kun, fordi jeg har det kendskab til teknologien.
Martin Clausen

Han fortsætter:

”Man skal huske, at alt, hvad en kunstig intelligens kan, er at forudsige, hvilket ord der kommer efter det foregående. Den tænker ikke, selvom det virker sådan. Den er trods alt mekanisk. Så tag det hele med et gran salt og brug, hvad du kan bruge – og smid resten væk.” 

Her bliver det for farligt 

Martin Clausen vil ikke anbefale alle at bruge AI-baserede chatbots til terapeutiske formål.

”Hvis man vil bruge ChatGPT som terapeut, skal man nøje instruere den i at spørge ind og udfordre, hvad man skriver. Fx falske antagelser eller tanker, der simpelthen ikke passer. Bed den om at udfordre dig lidt og svare ærligt.”

Han mener, den kan være en god life coach og hjælpe med karriere og konkrete mål. Men:

”Den fungerer ikke ret godt som psykolog, fordi den ikke kan afklare, hvilke udfordringer man har, og hvordan man fx skal gebærde sig over for sine børn i en given situation. Jeg vil fraråde at bruge ChatGPT ved alvorlige mentale problemer som svær depression og svær angst.” 

Martin Clausen har givet ChatGPT en liste over symptomer, han skal være opmærksom på, og han har fortalt den, hvad han plejer at opleve i begyndelsen af en psykose. Bare for en sikkerheds skyld. Men han vil gerne advare mod brugen af ChatGPT og andre sprogmodeller i den sammenhæng:

”Hvis man har en historik med psykose, synes jeg ikke, man skal bruge kunstig intelligens som terapeut. Det er ganske enkelt for farligt.” 

Læs også

Natasha Christiansen, ChatGPT

Natasha Christiansen har haft gavn af ChatGPT som sparringspartner. Som mor til et barn med svær autisme har hun blandt andet fået strategier og formuleringer til at håndtere vanskelige situationer, men hun er meget opmærksom på, hvordan hun ikke...

AI-tema, forside, 2

Ventelisterne til behandling er lange, mens behovet for hjælp og lindring kun vokser. Derfor vender flere sig mod kunstig intelligens som Claude, ChatGPT og Gemini for at få støtte og rådgivning. Men eksperter advarer: For nogle kan AI-terapeuten...