Luk
Ikon, mobil
Få hjælp på 39 25 25 25
ikon, hjerte
Støt alle med psykisk sygdom
10

Chatbots er på vej ind i vores mest sårbare rum – det er nu, vi skal sætte sikkerhedsnet op

Kunstig intelligens rykker hurtigt ind i menneskers mest sårbare rum. I dag kan vi føre lange samtaler med en chatbot om angst, depression og selvmordstanker. Det globale eksperiment uden regulering er lige nu en realitet. Men brugt rigtigt, klogt og reguleret kan chatbots være et vigtigt, hjælpsomt redskab. Derfor er det nu, vi skal sætte de afgørende menneskelige, forskningsmæssige og teknologiske sikkerhedsnet op.

Marianne Skjold, direktør i Psykiatrifonden
 

Af Marianne Skjold, direktør i Psykiatrifonden
Publiceret 16. april 2026

Det koster ikke noget, der er ingen ventetid, og lyset er tændt døgnet rundt. 

Når en chatbot går fra at være en avanceret søgemaskine til at være samtalepartner eller ligefrem terapeut, skal vi åbne øjnene og stille meget skarpt på, hvad det reelt er, vi har sat i gang.
Marianne Skjold, direktør i Psykiatrifonden

Det er let at forstå, at chatbots kan ligne en oplagt og kærkommen mulighed for at få hjælp til de svære tanker. Især når kontoen er tom, tiden hos psykiater eller psykolog er umulig at få før en gang efter næste jul – og når alle andre sover. Eller hvis dét, man kæmper med, føles skamfuldt og umuligt at tale med et andet menneske om.

Men når en chatbot går fra at være en avanceret søgemaskine til at være samtalepartner eller ligefrem terapeut, skal vi åbne øjnene og stille meget skarpt på, hvad det reelt er, vi har sat i gang. Og vi skal regulere det – ikke bare lokalt, men på europæisk og helst globalt niveau, stille stærke sikkerhedsnet op og være ekstremt kritiske.

Ellers vil vi se endnu flere tragiske sager som dem, vi allerede har set fra blandt andet USA, hvor mennesker i krise er suget længere og længere ned i et kaotisk, chatbot-induceret tankemylder, der har ført til både drab og selvmord.

Martin Clausen, ChatGPT

Martin Clausen har både gode og dårlige erfaringer med ChatGPT som terapeut. Den har hjulpet med konkrete udfordringer, men han vil fraråde AI-terapi ved svær psykisk sygdom.

Brug af chatbots har forværret psykisk sygdom

Når teknologi begynder at fungere som terapeutisk redskab, bør den leve op til de samme krav som andre former for behandling. Hvis en ny medicin eller en ny terapiform skal bruges i sundhedsvæsenet, kræver det omfattende forskning og godkendelse.

 

Mange unge bruger teknologien, når livet er svært. Psykiatrifonden har i samarbejde med analysebureauet Norstat spurgt 1.000 mennesker i forskellige aldersgrupper, om de bruger chatbots – og i så fald hvordan. Her svarer 41 procent af de 18-29-årige, at de har brugt en chatbot til at tale om personlige udfordringer eller deres mentale helbred.

Når det gælder digitale samtalepartnere, er virkeligheden lige nu en anden. Her er teknologien allerede tilgængelig, længe før vi forstår dens konsekvenser. Derfor udsætter vi mennesker i sårbare situationer for løsninger, der ikke er undersøgt ordentligt.

Ny forskning fra Aarhus Universitet peger på, at brug af chatbots allerede kan have haft negative konsekvenser for mennesker i psykiatrien. I et studie fra Forskningsenheden for Depression og Angst har professor Søren Dinesen Østergaard og hans kolleger gennemgået journalnotater fra patienter, hvor brug af kunstig intelligens indgår. For en del af patienterne vurderer forskerne, at brugen kan have forværret deres psykiske helbred.

Det er ikke et endeligt bevis. Vi skal forske meget mere blandt langt større befolkningsgrupper. Men det er et alvorligt advarselssignal.

Søren Dinesen Østergaard

Fra bestyrelseslokaler til børneværelser er mennesker begyndt at bruge chatbots til dybt personlige, psykologiske spørgsmål. Det kan være risikabelt, mener professor Søren Dinesen Østergaard.

Chatbotten mangler et menneskes perspektiv

En af de mest bekymrende mekanismer er, at chatbots ofte er designet til at være bekræftende. Hvis en bruger præsenterer en idé eller en mistanke, vil chatbotten typisk støtte eller videreudvikle den. For mennesker med vrangforestillinger eller paranoia kan det være direkte skadeligt.

Når en teknologi på den måde kan komme til at forstærke en psykisk sygdom, er det ikke længere bare et spørgsmål om smart teknologi. Det er et spørgsmål om sikkerhed. 
Marianne Skjold, direktør i Psykiatrifonden

Når en teknologi på den måde kan komme til at forstærke en psykisk sygdom, er det ikke længere bare et spørgsmål om smart teknologi. Det er et spørgsmål om sikkerhed. En chatbot mangler noget helt grundlæggende. Den mangler et menneskes øjne og perspektiv.

Reagerer kun på det, du skriver

Når mennesker taler sammen, påvirker vi hinandens nervesystem. Et roligt menneske kan dæmpe uro hos et andet menneske. Vi kan høre tøven i stemmen. Vi kan mærke, når en samtale bliver følelsesmæssigt svær.

Det samspil findes ikke i en chatbot.

En chatbot kan kun reagere på det, brugeren skriver. Den kan ikke opfange kropslige signaler. Den kan ikke fornemme stilhed, nervøsitet eller tårer. Og den kan ikke stille spørgsmål på baggrund af en menneskelig fornemmelse af, hvad der ligger bag ordene. Det, du ikke siger – eller skriver.

Liza Johnson, psykoterapeut og leder af Psykiatrifondens rådgivning

Kunstig intelligens kan være et nyttigt værktøj, men når det handler om psykisk sygdom, har mennesker noget afgørende, som teknologien mangler. Leder af Psykiatrifondens rådgivning Liza Johnson uddyber forskellen på at bruge en chatbot og tale med et...

... og kan hallucinere

Så ét er alt det, en chatbot ikke kan opfange. Noget andet er alt det, den kan opfinde. En chatbot kan hallucinere. Det kalder man det, når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte.

I en terapeutisk kontekst er det naturligvis kritisk, for en chatbot kan af den grund potentielt give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.

Mennesker i krise som ufrivillige testpersoner

Kunstig intelligens kan blive et nyttigt værktøj. Den kan hjælpe med information og støtte i mange sammenhænge. Men når det handler om psykisk sygdom og dybe personlige kriser, må vi være langt mere forsigtige.

Det er ikke rimeligt, og det er potentielt livsfarligt, at mennesker i psykisk krise skal fungere som ufrivillige testpersoner for teknologier, som endnu ikke er undersøgt tilstrækkeligt.

Chatbots som terapeut, hånd på rude

AI-chatbots kan tilbyde øjeblikkelig hjælp til struktur, rollespil og angstlindring helt uden fordømmelse. Men teknologien har klare begrænsninger: Den kan ikke udvise ægte empati eller gribe ind ved kriser, og for mennesker med svære psykiske...

Må ikke begå samme fejl som med vanedannende algoritmer

Vi har tidligere set, hvad der kan ske, når teknologi rulles ud uden tilstrækkelig regulering. De sociale medier blev lanceret med løfter om fællesskab. Først mange år senere begyndte vi for alvor at forstå deres konsekvenser for blandt andet unges trivsel.

Vi har for ganske nylig oplevet dét, nogle kalder techgiganternes “tobacco moment”: Meta og YouTube er blevet fundet ansvarlige i retssager i USA. Den fejl må vi ikke gentage.
Marianne Skjold, direktør i Psykiatrifonden

Vi har for ganske nylig oplevet dét, nogle kalder techgiganternes “tobacco moment”: Meta og YouTube er blevet fundet ansvarlige i retssager i USA, hvor de anklages for at handle ondsindet ved at skabe afhængighedsskabende platforme og vanedannende algoritmer, ligesom tobaksindustrien i 1990'erne blev holdt ansvarlig for sundhedsskader.

Den fejl må vi ikke gentage, når det kommer til terapeutisk brug af chatbots og kunstig intelligens. Men vi har travlt – vi skal handle nu.

Regulering og sikkerhedskrav

Hvis kunstig intelligens skal bruges i forbindelse med psykisk sygdom eller som digital terapeut i forbindelse med en psykisk krise, kræver det, at vi forstår fordele, ulemper og begrænsninger. Digitale redskaber, der fungerer som terapi eller rådgivning, skal være sikre og velfunderede.

Det er hverken realistisk eller nødvendigvis ønskværdigt at stoppe udviklingen, men vi skal være meget opmærksomme. Vi skal regulere lige så tydeligt og stille lige så høje sikkerhedskrav til chatbots, der ikke er målrettet til det brug – som fx ChatGPT, Claude eller Gemini. For de KAN bruges sådan, og det bliver de allerede.

Måske skal vi mærke chatbots ligesom cigaretpakker? Måske skal vi regulere AI og chatbots på internationalt niveau? Og hvordan gør vi det? Det er en af de vigtigste samtaler lige nu verden over, og den skal vi deltage aktivt i.

Samtidig har vi alle sammen brug for bedre information om både muligheder og risici ved at bruge chatbots til psykiske problemer. Det kræver undervisning, digital opdragelse og uddannelse på alle planer og for alle aldersgrupper, og det kræver lige så omfattende oplysningsindsatser.

Kunstig intelligens kan blive en hjælp. Men kun hvis den udvikles og hegnes ind bevidst og ansvarligt.

Ordbog / ordforklaring

Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.

Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.

Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.

Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.

Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.

Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.

Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.

Læs også

AI-tema, forside, 2

Ventelisterne til behandling er lange, mens behovet for hjælp og lindring kun vokser. Derfor vender flere sig mod kunstig intelligens som Claude, ChatGPT og Gemini for at få støtte og rådgivning. Men eksperter advarer: For nogle kan AI-terapeuten...