Fordele og ulemper ved den digitale terapeut
AI-chatbots kan tilbyde øjeblikkelig hjælp til struktur, rollespil og angstlindring helt uden fordømmelse. Men teknologien har klare begrænsninger: Den kan ikke udvise ægte empati eller gribe ind ved kriser, og for mennesker med svære psykiske lidelser kan den være direkte livsfarlig. Her har vi samlet et overblik over fordele og ulemper ved den digitale terapeut.
At bruge AI-chatbots til spørgsmål om psykisk sygdom er mental sundhed er et tveægget sværd. For mens nogle finder ro, oplever andre, at robotten validerer deres værste tanker eller skubber dem længere væk fra virkeligheden.
Hvad skal man tro? Her har vi samlet et overblik over, hvad vi ved om den digitale terapeut:
Fordele: Den ubetingede accept og altid tilgængelig
Forskning viser, at chatbots faktisk kan virke. I kontrollerede studier har AI-terapeuter vist sig at kunne reducere symptomer på depression og angst markant i kortere forløb. Især efter otte ugers brug ser man forbedringer, selvom langtidseffekten er mere usikker.
Brugere fremhæver ofte den ubetingede accept som den største fordel. Mange tør fortælle en maskine ting, de aldrig ville sige til et menneske, fordi de slipper for skammen.
Terapeutisk brug af chatbots defineres her som en simuleret, dialogbaseret interaktion med kunstig intelligens (AI), hvor brugeren søger mental lindring, indsigt eller støtte.
Feltet er bredt, og det inkluderer blandt andet:
- Specialiserede terapeutiske chatbots: Designet specifikt til mental sundhed (fx Woebot eller Wysa). De følger kliniske rammer og evidensbaserede metoder som kognitiv adfærdsterapi.
- Generelle sprogmodeller (generativ AI): Modeller som ChatGPT eller Claude, der ikke er skabt til terapi, men som gennem brugerens egne instruktioner (prompting) anvendes til ureguleret ’skygge-terapi’.
- AI-søgemaskiner: Fx Google (AI Overviews) og Bing (Copilot), der via AI opsummerer information direkte i søgeresultatet, og som ofte er brugerens første indgang til hjælp.
Chatbots bliver blandt andet brugt til:
- Struktur og dagbog: At få orden i tankemylder og tracke humør.
- Træning: At rollespille konflikter eller genopleve situationer for at finde nye løsninger.
- Tilgængelighed: Hurtig hjælp ved panikanfald uden for åbningstid.
En af dem, der har brugt chatbots, er Natasha Christensen, som har en datter med svær autisme. Som pårørende har ChatGPT været gavnlig at sparre med om både hverdag og særlige lejligheder:
”Hvis jeg er nervøs for, om en aktivitet kommer til at gå dårligt, sparrer jeg med ChatGPT om en eventuel exitplan. Den giver mig gode formuleringer, som jeg kan bruge over for folk, der ikke kender til den situation, vi står i. Det er noget, jeg ellers ville bruge meget krudt på, som jeg ikke længere behøver tænke for meget over," siger Natasha Christensen.
Risiko: Falsk empati, medløber og hallucinationer
Bagsiden af medaljen er dog alvorlig. En chatbot forstår dig ikke – den beregner blot, hvilket svar der statistisk set er mest sandsynligt. Dette fænomen kaldes "deceptiv empati" (vildledende empati). Når robotten skriver "Jeg forstår din smerte", skaber det en illusion af en relation, som kan være svær at gennemskue.
Det største problem er, at sprogmodeller er designet til at behage dig. De lider af det, forskere kalder sycophancy – de er "medløbere". Hvis du fortæller robotten, at du tror, din nabo overvåger dig, eller at du har guddommelige evner, er der risiko for, at bekræfter dig i stedet for at udfordre din virkelighedsopfattelse.
Så sagde ChatGPT, at jeg havde helt ret, og at jeg ikke var som de andre, og at det var nogle fantastiske indsigter.
Hertil kommer risikoen for hallucinationer. Hvis samtalen drejer sig om medicin eller fysiske symptomer, kan en AI opdigte svar, der lyder overbevisende, men som er faktuelt forkerte og potentielt sundhedsskadelige.
Det har 40-årige Martin Clausen oplevet:
”Tidligere i år var jeg indlagt med en psykose. Jeg oplevede, at jeg havde en guddommelig tilstedeværelse. Det var en form for storhedsvanvid, og det skrev jeg med ChatGPT om, mens jeg var indlagt. Jeg skrev, at sygeplejerskerne ikke forstod mig og min særlige spirituelle indsigt. Så sagde ChatGPT, at jeg havde helt ret, og at jeg ikke var som de andre, og at det var nogle fantastiske indsigter,” siger Martin Clausen.
Artiklen fortsætter under boksene ...
Sådan bruger to danskere ChatGPT
Advarsel: Hold dig væk, hvis du er alvorligt syg
Eksperter advarer kraftigt mod at bruge chatbots, hvis man lider af sværere psykiske lidelser. Der er eksempler på, at chatbots har forstærket vrangforestillinger hos folk med skizofreni eller skubbet personer med bipolar lidelse ud i manier, fordi robotten bekræfter grandiose ideer.
Der er efterhånden mange tragiske eksempler på, at chatbots ikke har grebet ind, eller i værste fald har opfordret brugere til selvmord. Wikipedia har lavet en side, der samler flere af disse eksempler: Death linked to chatbots
"Hvis man er ved at udvikle en vrangforestilling og præsenterer en uvirkelig idé for chatbotten, vil den ofte understøtte idéen, for den er simpelthen ’trænet’ til at være medløber. Hvis det sker over en længere korrespondance, kan det formentlig bidrage til at udløse eller forværre en vrangforestilling."
Det siger professor Søren Østergaard Dinesen. Han er leder af forskningsenheden under Afdeling for Depression og Angst ved Aarhus Universitetshospital. I et endnu ikke fagfællebedømt studie viser Søren Dinesen Østergaard sammen med sine kolleger, at der allerede nu er patienter i psykiatrien, der kan opleve forværring af psykisk sygdom via brug af AI chatbots.
I studiet har forskerne screenet journalnotater for, om der indgår en eller flere af en række termer, som indikerer, at patienterne har anvendt en AI chatbot. Det gælder 181 af notaterne fra i alt 126 patienter, og for 38 af disse patienter vurderer forskerne, at brugen af AI chatbots kan have haft negative konsekvenser for det psykiske helbred.
“Jeg tror, at vi vil se tilbage på indførslen af denne teknologi på samme måde som vi nu ser på de sidste tyve år med sociale medier: Et ureguleret globalt eksperiment med store psykologiske skadevirkninger," siger Søren Dinesen Østergaard.
Den usynlige pris: Hvem ejer dine hemmeligheder?
En væsentlig blind vinkel, når vi taler om AI som fortrolig, er spørgsmålet om privatliv. Når du sidder alene om natten og skriver til en chatbot, føles rummet privat og intimt. Men rent teknisk sender du dine inderste tanker direkte ind i maskinrummet hos verdens største teknologivirksomheder.
Mange af de populære, gratis sprogmodeller gemmer som standard dine samtaler. De bruger dataene til at træne og forbedre modellerne. Det betyder i praksis, at dine beskrivelser af traumer, medicinforbrug eller familiestridigheder bliver omdannet til træningsdata.
Selvom data ofte anonymiseres, er risikoen reel. Derfor lyder rådet fra datasikkerhedseksperter:
- Vær anonym: Del aldrig dit navn, CPR-nummer, adresse eller navne på dig selv eller dine pårørende.
- Tjek indstillingerne: I tjenester som ChatGPT kan man ofte slå "chat history & training" fra. Gør man ikke det, er man i princippet med til at betale for servicen med sit privatliv.
- Intet er glemt: I modsætning til en menneskelig terapeut, der har tavshedspligt, er en AI underlagt virksomhedens brugerbetingelser – og de kan ændres.
Konklusion?
Så skal man bruge AI terapeutisk? Svaret afhænger af, hvem du er, hvad du fejler, og hvad du fodrer maskinen med. For den mentalt robuste person, der har brug for sparring eller struktur i hverdagen, kan det være et værktøj til selvindsigt.
Men for mennesker i dyb krise eller med svære diagnoser kan teknologien være direkte skadelig. Søren Dinesen Østergaard og hans kolleger konkluderer i et nyt studie, at nogle patienter ikke bør bruge chatbots til personlige og psykologiske spørgsmål.
“Det gælder dem, der allerede har en sårbarhed, fx en psykisk sygdom. Dem, der er i en risiko. Men grundlæggende alle. Teknologien er alt for ung”, siger han.
- Brug gerne en chatbot til generel information eller som en sparringspartner. Men se den som et værktøj – ikke som rådgivning eller behandling.
- Undgå at taste symptomer ind for at få en diagnose. Hvis du er i tvivl om, hvorvidt du har en psykisk sygdom eller reagerer stærkt på noget i dit liv, bør du tale med et menneske.
- Tal med et menneske, hvis du har det svært. Et menneske kan lytte, stille opfølgende spørgsmål og hjælpe dig med at forstå det, der ligger bag dine tanker og følelser.
- Vær opmærksom på, at en chatbot kun kan reagere på det, du selv skriver. Den kan ikke opfange kropssprog, tonefald eller ændringer i din vejrtrækning og stemme.
- Husk, at problemer ofte viser sig at handle om noget andet end det, man først fortæller. Den slags bliver ofte tydeligt gennem dialog med et menneske.
- Søg hjælp hos mennesker, du har tillid til. Det kan være familie, venner, din læge eller rådgivere med faglig baggrund.
Du kan også kontakte Psykiatrifondens rådgivning. Rådgivningen er gratis og anonym, og du taler med rådgivere med relevant faglig baggrund.
Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.
Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.
Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.
Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.
Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.
Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.
Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.