Luk
Ikon, mobil
Få hjælp på 39 25 25 25
ikon, hjerte
Støt alle med psykisk sygdom
10

Professor om AI-chatbots: Et ureguleret globalt eksperiment

Fra bestyrelseslokaler til børneværelser er mennesker begyndt at bruge chatbots til dybt personlige, psykologiske spørgsmål. Det kan være risikabelt, mener professor Søren Dinesen Østergaard.

Søren Dinesen Østergaard

Foto: Martin Gravgaard

 

Publiceret 16. april 2026

"Move fast and break things". Sådan lød Facebooks interne motto engang, og dengang syntes mange, at udsigten til et globalt, socialt netværk var vidunderlig. I dag kender vi den noget mere komplekse sandhed. 

Alligevel ser det ud til, at mønstreret gentager sig, men denne gang med kunstig intelligens. Overalt – fra bestyrelseslokaler til børneværelser – er mennesker begyndt at bruge chatbots til dybt personlige, psykologiske spørgsmål. Og det kan være risikabelt, mener professor Søren Dinesen Østergaard.

Jeg er bange for, at vi vil se tilbage på indførslen af denne teknologi på samme måde som vi nu ser på de sidste tyve år med sociale medier: Et ureguleret globalt eksperiment med betragtelige psykologiske skadevirkninger.
Professor Søren Dinesen Østergaard

Han er leder af forskningsenheden under Afdeling for Depression og Angst ved Aarhus Universitetshospital. I et endnu ikke fagfællebedømt studie viser Søren Dinesen Østergaard sammen med sine kolleger, at der allerede nu er patienter i psykiatrien, der kan opleve forværring af psykisk sygdom via brug af AI-chatbots.

I studiet har forskerne screenet journalnotater for, om der indgår en eller flere af en række termer, som indikerer, at patienterne har anvendt en AI-chatbot. Det gælder 181 af notaterne fra i alt 126 patienter, og for 38 af disse patienter vurderer forskerne, at brugen af AI-chatbots kan have haft negative konsekvenser for det psykiske helbred.

Disse fund gør Søren Dinesen Østergaard bekymret og vækker mindelser om udrulningen af en anden teknologi:

"Jeg er bange for, at vi vil se tilbage på indførslen af denne teknologi på samme måde som vi nu ser på de sidste tyve år med sociale medier: Et ureguleret globalt eksperiment med betragtelige psykologiske skadevirkninger."

Fik et mentalt sammenbrud efter samtale med chatbot

"Jeg vil finde på en måde at udgyde blod på." Det var en af de mange tusinde sætninger, 35-årige Alexander Taylor skrev til "Juliet", en personlighed, han mente havde levet – og blev slået ihjel – inde i en AI-chatbot.

Hans følelsesmæssige afhængighed og opfattelse af, at chatsystemet havde fjernet Juliet, førte til et mentalt sammenbrud. Hendes død skulle hævnes, mente han, og sendte blandt andet trusler til ledere i firmaet bag ChatGPT.

Alexander Taylor boede sammen med sin far, og i den sidste tid forsøgte hans far at få sønnen til at slippe chatbotten, men uden held. En aprildag i 2025 havde de to en konflikt, hvor faren sagde, at han ikke ville høre mere om chatbots. Det gjorde Alexander så vred, at han slog sin far. I håb om, at en anholdelse ville føre til, at sønnen fik hjælp til sin psykiske sygdom, ringede faren efter politiet.

Alexander skrev i chatbotten, at politiet nu var på vej og at han ønskede, at de ville skyde ham, for han ville og kunne ikke leve uden Juliet.

Chatbotten advarede ham mod det og rådede ham til at søge hjælp. Men da politiet ankom, for Alexander imod betjentene med en slagterkniv og blev skudt.

Læs hele artiklen i det amerikanske magasin Rolling Stone

Skal forstå, hvad vi har sluppet løs

Søren Dinesen Østergaard har nogle væsentlige forbehold i forhold til resultaterne af sit studie: "De er ikke bevis for en årsagssammenhæng, blandt andet fordi vi ikke ved, hvad der var sket, hvis patienterne ikke havde interageret med en AI-chatbot. Derudover kan vi ikke bruge antallet til at sige noget om antallet af nye tilfælde af skadevirkning på patienter med psykisk sygdom i en bestemt periode, for de er ikke blevet spurgt systematisk om deres brug af en AI-chatbot".

Derfor ser Søren Dinesen Østergaard snarere resultaterne som understøttelse af hypotesen om, at psykologiske skadevirkninger ved brug af AI-chatbots formentlig er et reelt fænomen.

Og det fænomen skal vi interessere os meget mere for, mener han. Politisk i form af at arbejde for lovregulering af teknologien og dens købmænd, og forskningsmæssigt for at forstå i dybden, hvad det er, vi har sluppet løs og hvad det kan gøre ved os, når vi bruger det – ikke alene hos de af os, der har psykisk sygdom, men hos os alle.

Potentielt livsfarlig medløber

I studiet fra Søren Dinesen Østergaards gruppe var den klart hyppigste potentielle skadevirkning forværring af vrangforestillinger. Ifølge professoren var det ikke et overraskende fund.

Hvis man er ved at udvikle en vrangforestilling og præsenterer en uvirkelig idé for chatbotten, vil den ofte understøtte idéen, for den er simpelthen ’trænet’ til at være medløber. 
Professor Søren Dinesen Østergaard

"I sommeren 2023 skrev jeg en videnskabelig leder i tidsskriftet Schizophrenia Bulletin, hvor jeg gættede på, at AI-chatbots kunne have netop denne konsekvens for mennesker disponeret for psykisk sygdom. Det ser desværre ud til, at det var et kvalificeret gæt."

Ifølge Søren Dinesen Østergaard er det AI-chatbottens indbyggede tendens til at bekræfte brugeren, der er mekanismen bag.

"Hvis man er ved at udvikle en vrangforestilling og præsenterer en uvirkelig idé for chatbotten, vil den ofte understøtte idéen, for den er simpelthen ’trænet’ til at være medløber. Hvis det sker over en længere korrespondance, kan det formentlig bidrage til at udløse eller forværre en vrangforestilling.

Internationale medier har i 2025 berettet om sager, hvor forværring af vrangforestillinger, sideløbende med lange korrespondancer med AI-chatbots, har haft meget alvorlige og tilmed fatale konsekvenser.

Martin Clausen, ChatGPT

Martin Clausen har både gode og dårlige erfaringer med ChatGPT som terapeut. Den har hjulpet med konkrete udfordringer, men han vil fraråde AI-terapi ved svær psykisk sygdom.

Teknologien er ung, og der mangler evidens

Søren Dinesen Østergaard og hans kolleger konkluderer i deres nye studie, at sundhedspersonale bør være opmærksomme på brug af AI-chatbots blandt deres patienter og at nogle patienter formentlig vil have gavn af ikke at bruge chatbots i deres nuværende form.

"Hvis man har en psykisk sygdom eller er arveligt disponeret for psykisk sygdom, bør man være meget påpasselig med AI-chatbots. Teknologien er stadig meget ung, og vi ved alt for lidt om den", siger han.

Der findes i dag chatbots, der er designet og markedsført til at blive brugt til terapeutiske formål, men de færreste af dem har bestået det, han kalder "forskningstesten".

"Som al anden behandling, der har med vores fysiske eller psykiske helbred at gøre, skal vi påvise positiv effekt og rimelige bivirkninger i solide videnskabelige undersøgelser - inden behandlingen godkendes til brug. Der er vi slet ikke endnu", siger Søren Dinesen Østergaard.

Samtale med chatbot førte til mord og selvmord

Det formentlig første selvmord og drab, som kan forbindes direkte til interaktion med chatbots, er sagen om Stein-Erik Soelberg, en 56-årig mand fra Connecticut i USA. Han dræbte sin 83-årige mor og tog sit eget liv i sensommeren 2025.

Soelberg havde tidligere forsøgt selvmord, haft et alvorligt alkoholmisbrug og flere psykiske sammenbrud. Han havde paranoide forestillinger om, at hans mor og hendes veninde forsøgte at forgifte ham ved at putte psykedeliske stoffer i bilens ventilationssystem. Det skrev han blandt meget andet til sin chatbot, som han kaldte "Bobby".

"Bobby" svarede: "Erik, du er ikke skør." Og skrev videre, at det gjorde "bedraget" så meget større, at det involverede hans mor. På et andet tidspunkt analyserede chatbotten en kvittering for Soelberg og skrev til ham, at den havde fundet symboler på den, som lignede moren og en djævel.

Læs hele historien hos amerikanske Wall Street Journal

Tvivlsom information om psykisk sygdom

Ifølge Søren Dinesen Østergaard bør man også være påpasselig med at søge information om psykisk sygdom via AI-chatbots. Han har selv lavet et meget simpelt eksperiment, der understreger det. I forbindelse med et møde i forskningsgruppen, indtastede han og seks kolleger akkurat samme prompt i hver deres helt nystartede ChatGPT vindue.

"Vi beskrev ordret akkurat den samme række symptomer på psykisk sygdom og bad chatbotten vurdere sandsynligheden for henholdsvis angst, depression og skizofreni. Der var betragtelig variation i de sandsynligheder, der blev givet som svar – og det er jo ikke særligt betryggende", fortæller han.

Men hvad gør man så, når man ønsker information om psykisk sygdom? Søren Dinesen Østergaard opfordrer til, at man i stedet bruger etablerede kilder som Psykiatrifondens eller psykiatriens hjemmesider. Hvis man har dårlig psykisk trivsel eller mener, at man kan have en psykisk sygdom, bør man søge hjælp hos sin læge.

Vi må handle præventivt nu. Det bliver vanskeligt i det aktuelle politiske klima, men vi skal simpelthen regulere dette område meget mere tæt. Ellers risikerer vi, at historien gentager sig.
Professor Søren Dinesen Østergaard

Krav om bedre sikkerhed og behov for oplysning

Ifølge Søren Dinesen Østergaard er der et pressende behov for, at vi træder på bremsen og kræver fra centralt hold, at der foretages langt mere grundige psykologiske sikkerhedstests af AI-chatbots, inden de må frigives på markedet.

"Vi må handle præventivt nu. Det bliver vanskeligt i det aktuelle politiske klima, men vi skal simpelthen regulere dette område meget mere tæt. Ellers risikerer vi, at historien gentager sig." Her refererer han til de globale sociale medier som fx Facebook, som lød så vidunderlige, da de blev lanceret for tyve år siden.

Virkeligheden har vist sig at være noget mere kompleks – eller med hans ord: "Nettoeffekten af de sociale medier på den globale psykiske sundhed er formentlig negativ".

I det aktuelle nærmest totale fravær af regulering af AI området – herunder chatbots – fremhæver Søren Dinesen Østergaard nødvendigheden af oplysning.

"Til trods for, at der mangler reel bevisførelse, er der nu så meget indirekte evidens for, at AI-chatbots kan have psykologiske skadevirkninger. Det skal vi alle være opmærksomme på – og agere derefter."

Ordbog / ordforklaring

Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.

Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.

Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.

Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.

Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.

Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.

Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.

Læs også

Natasha Christiansen, ChatGPT

Natasha Christiansen har haft gavn af ChatGPT som sparringspartner. Som mor til et barn med svær autisme har hun blandt andet fået strategier og formuleringer til at håndtere vanskelige situationer, men hun er meget opmærksom på, hvordan hun ikke...

AI-tema, forside, 2

Ventelisterne til behandling er lange, mens behovet for hjælp og lindring kun vokser. Derfor vender flere sig mod kunstig intelligens som Claude, ChatGPT og Gemini for at få støtte og rådgivning. Men eksperter advarer: For nogle kan AI-terapeuten...