Luk
Ikon, mobil
Få hjælp på 39 25 25 25
ikon, hjerte
Støt alle med psykisk sygdom
10

Ekspert: Fem ting du bør vide, inden du overlader din mentale trivsel til en algoritme

Sofie Meyer er en af de danskere, der ved mest om krydsfeltet mellem kunstig intelligens og terapi. Her gennemgår hun fem pointer, som alle – både brugere og fagpersoner – bør forstå, før de overlader deres mentale trivsel til en algoritme.

Sofie Meyer
 

Publiceret 16. april 2026

Det er ikke uden grund, at AI vinder frem som en form for lomme-terapeut. Teknologien er anonym, gratis og kræver ikke, at man overvinder frygten for at se et andet menneske i øjnene. For mange er det en ventil i en presset hverdag, hvor vejen til traditionel hjælp kan virke uoverskuelig og fyldt med stigmatisering.

Men bag den hjælpsomme facade gemmer der sig en kommerciel virkelighed. Og vi risikerer at forveksle teknologisk tilgængelighed med reel omsorg. En chatbot er nemlig optimeret til at behage brugeren her og nu, ikke til at sikre langsigtet mental sundhed eller udfordre os dér, hvor det gør ondt – men er nødvendigt.

Det mener Sofie Meyer, som har en ph.d. i neurovidenskab fra University College London (UCL) og er under uddannelse til psykoterapeut. Hun arbejder med ”Conversation Design”, hvor hun designer de dialoger, der får chatbots og kunstig intelligens til at tale naturligt og empatisk med mennesker. Hendes unikke profil gør hende til en af de førende eksperter i at skabe digitale løsninger, der både teknisk og menneskeligt kan understøtte terapeutiske samtaler og mental sundhed.

Her gennemgår Sofie Meyer fem afgørende pointer, som alle – både brugere og fagpersoner – bør forstå, før de overlader deres mentale trivsel til en algoritme:

1. Designet til at behage, ikke til at behandle

Chatbots er kommercielle softwareprodukter, der er optimeret til at give brugeren en behagelig oplevelse og holde samtalen i gang. Den er programmeret til at være hjælpsom og imødekommende, men den mangler fundamentale terapeutiske principper. Den er ikke i stand til at give langsigtede råd og vejledning og til at vurdere, hvornår en bruger har brug for modstand og at blive udfordret på sine udsagn. 

Med andre ord er AI optimeret til at tilfredsstille brugerens behov her og nu. Den vil typisk forsøge at bekræfte, støtte og sige det, der opleves rart – ikke nødvendigvis det, der er sundt eller hjælpsomt på længere sigt. 

2. Alternativ til skam og ventelister

AI tilbyder en genvej uden social risiko, men den kan samtidig forstærke afstanden til andre mennesker, hvis den bliver den primære måde at håndtere psykisk sårbarhed på.

For mange er en chatbot attraktiv, fordi den gør det muligt at blive hørt og anerkendt uden at skulle udvise sårbarhed over for et andet menneske. Især for folk med social angst eller frygt for stigmatisering tilbyder teknologien et trygt rum, der er gratis, anonymt og uden ventetid. Man kan starte samtalen med det samme uden at skulle forklare sig over for sin omgangskreds eller kigge en psykolog i øjnene.

Men Sofie Meyer påpeger, at denne omsorg grundlæggende er simuleret. Chatbotten har ingen etisk forpligtelse og tilbyder ikke den menneskelige relation og ansvarlighed, som er central i terapi. Selvom AI er let at bruge, er netop fraværet af et andet menneske dens største problem som erstatning for rigtig hjælp.

Den stigende brug af AI til terapeutiske formål afslører derfor mere om barriererne i vores sundhedsvæsen end om teknologens kvalitet. Det er et tegn på, at traditionel hjælp er for svært tilgængelig og stadig behæftet med for meget skam. Hvis vi vil mindske brugen af sprogmodeller som terapeuter, kræver det derfor ikke blot regulering, men et opgør med stigmatiseringen af psykisk sårbarhed.

3. AI-virksomheder fralægger sig ansvar

Ingen digitale tjenester er reelt gratis; når man ikke betaler med penge, betaler man med sin tid, opmærksomhed og data. Selvom mange brugere anvender sprogmodeller som ChatGPT til terapi, er det ikke et attraktivt forretningsområde for tech-virksomhederne. Det indebærer en betydelig juridisk risiko og giver et begrænset afkast sammenlignet med det lukrative salg af licenser til store institutioner og virksomheder.

For at beskytte sig selv placerer udbyderne konsekvent ansvaret hos brugeren. Ved systematisk at understrege, at teknologien ikke er beregnet til terapi, skaber virksomhederne en effektiv ansvarsfraskrivelse, der fritager dem for konsekvenserne af deres egne systemer.

Det er derfor afgørende ikke at forveksle teknologisk tilgængelighed med omsorg. AI-udbydere har ingen forpligtelse over for den enkelte brugers trivsel. Når følsomme oplysninger deles med en chatbot, indgår de i et globalt økosystem, hvor hensynet til skalerbarhed og markedsværdi altid vil veje tungere end hensynet til det enkelte menneske.

4. Oplysning frem for forbud

Det er urealistisk at forbyde brugen af AI i personlige og psykiske sammenhænge, da teknologien allerede er en integreret del af hverdagen. I stedet bør fokus ligge på oplysning og kritisk bevidsthed om, hvem er særligt sårbare, og hvornår er teknologien direkte uhensigtsmæssig?

Vejen frem er etisk design, tydelig kommunikation og realistiske forventninger. Disse redskaber er langt mere effektive end forbud, som blot risikerer at skubbe brugen under radaren uden at løse de grundlæggende udfordringer.

5. Datasikkerhed er ikke det samme som patientsikkerhed

Det er vigtigt at skelne mellem datasikkerhed og patientsikkerhed i brugen af AI i psykiske og personlige sammenhænge. Datasikkerhed handler om, hvordan følsomme oplysninger indsamles, lagres og anvendes af kommercielle AI-virksomheder, som opererer globalt og ofte uden klart ansvar over for den enkelte bruger.

Patientsikkerhed handler derimod om risikoen for psykisk skade. AI kan ikke vurdere mental tilstand, opdage forværring eller tage ansvar for konsekvenserne af sine svar. For sårbare brugere kan bekræftelse, manglende grænsesætning eller fejlfortolkning være direkte skadeligt. Begge dimensioner bør indgå centralt i vurderingen af AI’s rolle i mentale og terapeutiske sammenhænge.

Ordbog / ordforklaring

Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.

Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.

Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.

Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.

Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.

Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.

Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.

Læs også

Søren Dinesen Østergaard

Fra bestyrelseslokaler til børneværelser er mennesker begyndt at bruge chatbots til dybt personlige, psykologiske spørgsmål. Det kan være risikabelt, mener professor Søren Dinesen Østergaard.

AI-tema, forside, 2

Ventelisterne til behandling er lange, mens behovet for hjælp og lindring kun vokser. Derfor vender flere sig mod kunstig intelligens som Claude, ChatGPT og Gemini for at få støtte og rådgivning. Men eksperter advarer: For nogle kan AI-terapeuten...