Tema: Chatbots som skyggeterapeuter
Ventelisterne til behandling er lange, mens behovet for hjælp og lindring kun vokser. Derfor vender flere sig mod kunstig intelligens som Claude, ChatGPT og Gemini for at få støtte og rådgivning. Men eksperter advarer: For nogle kan AI-terapeuten være direkte livsfarlig. I dette tema dykker vi ned i fordele, faldgruber og etiske dilemmaer ved at bruge en chatbot som terapeut.
Chatbots er for mange blevet de nye ”skyggeterapeuter”. I en tid, hvor presset på psykiatrien er stort, er teknologien for mange en hurtig vej ud af ensomheden eller et redskab til at få struktur på en uoverskuelig hverdag. Det kræver ingen henvisning, og hjælpen er altid kun et klik væk – døgnet rundt. Men bag de hjælpsomme svar gemmer der sig en teknologi, der hverken har krop, følelser eller en klinisk uddannelse.
Psykiatrifondens rådgivning:
Gode råd om chatbots og mental sundhed
Der findes mange forestillinger om, hvad kunstig intelligens kan gøre for vores mentale sundhed. Nogle ser det som en digital revolution, mens eksperter advarer om et ”ureguleret globalt eksperiment” med potentielt store psykologiske skadevirkninger.
Sandheden er ofte nuanceret. En chatbot kan være en glimrende sparringspartner til at øve svære samtaler, dæmpe akut uro eller tilbyde ubetinget accept. Men den kan også hallucinere, give faktuelt forkerte råd og udvise en falsk empati, der kan føles ægte, men som savner menneskelig dybde. For mennesker med svære psykiske lidelser kan det i værste fald være direkte livsfarligt at stole blindt på en algoritme, da maskinen ikke kan gribe ind ved kriser eller mærke reel omsorg.
I dette tema kan du blandt andet møde Martin, der brugte ChatGPT som støtte, indtil han fik en psykose, og Natasha, som bruger teknologien som et aktivt værktøj i sin hverdag som pårørende til et barn med autisme. Eksperter gør dig klogere på de fem ting, du skal vide, før du overlader dit sind til en algoritme, og vi guider dig til de digitale alternativer, hvor der rent faktisk sidder et rigtigt menneske i den anden ende.
Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.
Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.
Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.
Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.
Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.
Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.
Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.
Sådan bruger to danskere ChatGPT
ChatGPT hjalp – indtil Martin fik en psykose
Martin Clausen har både gode og dårlige erfaringer med ChatGPT som terapeut. Den har hjulpet med konkrete udfordringer, men han vil fraråde AI-terapi ved svær psykisk sygdom.
Mor med klar advarsel: Sådan skal du ikke bruge chatbots
Natasha Christiansen bruger ChatGPT til sparring om sit barns autisme. Hun har blandt andet fået strategier og formuleringer til at håndtere vanskelige situationer. Men hun er meget bevidst om, hvordan AI ikke skal bruges.
Millioner bruger allerede chatbots som skyggeterapeuter
Det er ikke et spørgsmål om hvornår, men om hvor mange. Internationale tal viser, at hver tredje har søgt hjælp hos en chatbot, og alene OpenAI modtager hver uge over en million beskeder med indikationer på selvmordstanker. I Danmark får de fleste borgere nu AI-genererede svar på deres spørgsmål om sundhed.
Fordele og ulemper ved den digitale terapeut
Som værktøj kan AI-chatbots tilbyde øjeblikkelig hjælp til struktur, rollespil og angstlindring i et rum helt uden fordømmelse. Men teknologien har klare begrænsninger: Den kan ikke udvise ægte empati eller gribe ind ved kriser, og for mennesker med svære psykiske lidelser kan den være direkte livsfarlig.
- Brug gerne en chatbot til generel information eller som en sparringspartner. Men se den som et værktøj – ikke som rådgivning eller behandling.
- Undgå at taste symptomer ind for at få en diagnose. Hvis du er i tvivl om, hvorvidt du har en psykisk sygdom eller reagerer stærkt på noget i dit liv, bør du tale med et menneske.
- Tal med et menneske, hvis du har det svært. Et menneske kan lytte, stille opfølgende spørgsmål og hjælpe dig med at forstå det, der ligger bag dine tanker og følelser.
- Vær opmærksom på, at en chatbot kun kan reagere på det, du selv skriver. Den kan ikke opfange kropssprog, tonefald eller ændringer i din vejrtrækning og stemme.
- Husk, at problemer ofte viser sig at handle om noget andet end det, man først fortæller. Den slags bliver ofte tydeligt gennem dialog med et menneske.
- Søg hjælp hos mennesker, du har tillid til. Det kan være familie, venner, din læge eller rådgivere med faglig baggrund.
Du kan også kontakte Psykiatrifondens rådgivning. Rådgivningen er gratis og anonym, og du taler med rådgivere med relevant faglig baggrund.
Derfor er det bedst at tale med et menneske
Kunstig intelligens kan være et nyttigt værktøj, men når det handler om psykisk sygdom, har mennesker noget afgørende, som teknologien mangler. Leder af Psykiatrifondens rådgivning Liza Johnson uddyber forskellen på at bruge en chatbot og tale med et menneske, hvis man har det svært.
Chatbots indtager de sårbare rum – vi mangler et sikkerhedsnet
Kunstig intelligens rykker hurtigt ind i menneskers mest sårbare rum. Det globale eksperiment uden regulering er lige nu en realitet. Men brugt rigtigt, klogt og reguleret kan chatbots være et vigtigt, hjælpsomt redskab. Derfor er det nu, vi skal sætte de afgørende menneskelige, forskningsmæssige og teknologiske sikkerhedsnet op.
Terapeutisk brug af chatbots defineres her som en simuleret, dialogbaseret interaktion med kunstig intelligens (AI), hvor brugeren søger mental lindring, indsigt eller støtte.
Feltet er bredt, og det inkluderer blandt andet:
- Specialiserede terapeutiske chatbots: Designet specifikt til mental sundhed (fx Woebot eller Wysa). De følger kliniske rammer og evidensbaserede metoder som kognitiv adfærdsterapi.
- Generelle sprogmodeller (generativ AI): Modeller som ChatGPT eller Claude, der ikke er skabt til terapi, men som gennem brugerens egne instruktioner (prompting) anvendes til ureguleret ’skygge-terapi’.
- AI-søgemaskiner: Fx Google (AI Overviews) og Bing (Copilot), der via AI opsummerer information direkte i søgeresultatet, og som ofte er brugerens første indgang til hjælp.
Professor om AI-chatbots: Et ureguleret globalt eksperiment
Fra bestyrelseslokaler til børneværelser er mennesker begyndt at bruge chatbots til dybt personlige, psykologiske spørgsmål. Det kan være risikabelt, mener professor Søren Dinesen Østergaard.
Ekspert: 5 ting du bør vide, inden du overlader din trivsel til en algoritme
Sofie Meyer er en af de danskere, der ved mest om krydsfeltet mellem kunstig intelligens og terapi. Her gennemgår hun fem pointer, som alle – både brugere og fagpersoner – bør forstå, før de overlader deres mentale trivsel til en algoritme.
Digitale alternativer til chatbots
Selvom AI-chatbots som ChatGPT er lette at tilgå, mangler de menneskelig forståelse og faglig kvalitetssikring i svære samtaler om mental sundhed. Her finder du en omfattende guide over gratis, danske digitale tilbud, hvor du bliver mødt af rigtige fagfolk og rådgivere. Guiden er baseret på den nyeste kortlægning af feltet fra 2025.
Sådan ændrer AI danskernes søgen efter mental sundhed
I en rapport som Center For Digital Psykiatri offentliggjorde i februar 2026 konkluderes det, at generativ AI (generelle sprogmodeller) nu dominerer danskernes søgen efter sundhedsinfo. Og at de fleste borgere i dag møder et AI-genereret svar, når de søger efter viden om sundhed.
Psykisk sygdom må aldrig ødelægge liv
Flere og flere får en psykisk lidelse. Unge mistrives. Børn bliver glemt. Psykiatrien i Danmark er ved at kollapse! Du kan gøre en forskel. Lige nu.