Mor med klar advarsel: Sådan skal du ikke bruge chatbots
Natasha Christiansen har haft gavn af ChatGPT som sparringspartner. Som mor til et barn med svær autisme har hun blandt andet fået strategier og formuleringer til at håndtere vanskelige situationer, men hun er meget opmærksom på, hvordan hun ikke skal bruge kunstig intelligens.
Natasha Christiansen og hendes mand har en datter på syv år med svær autisme. De har også en datter på fire år, der er påvirket af familiens udfordringer. Som pårørende har ChatGPT været gavnlig at sparre med om både hverdag og særlige lejligheder.
Mange pårørende ved, hvor meget energi man kan bruge på at forklare, hvorfor man ikke kan deltage i et familiearrangement, eller hvorfor man ikke ”bare” kan være med til noget hyggeligt og uformelt. Her har Natasha fået meget konkret hjælp:
Hvis jeg er nervøs for, om en aktivitet kommer til at gå dårligt, sparrer jeg med ChatGPT om en eventuel exitplan.
”Hvis jeg er nervøs for, om en aktivitet kommer til at gå dårligt, sparrer jeg med ChatGPT om en eventuel exitplan. Den giver mig gode formuleringer, som jeg kan bruge over for folk, der ikke kender til den situation, vi står i. Det er noget, jeg ellers ville bruge meget krudt på, som jeg ikke længere behøver tænke for meget over.”
I forbindelse med familieferier og -rejser har hun også haft stor gavn af at sparre med sprogmodellen. Ferier kan være vanskelige for familien, og her kan Natasha få gode forslag til alt skabe struktur i ferien eller få ideer til, hvad det kan være fornuftigt at forberede en pige med autisme på forud for en campingtur.
Natasha Christiansen sidder ikke med ChatGPT foran sine børn, men bruger det fx, når de sover. Så kan hun med den digitale sparringspartner reflektere over dagen eller forberede den næste. Og for Natasha er nøgleordet netop refleksion. Maskinen er et værktøj. Det er hendes tanker og følelser som menneske, der er i centrum.
Familieterapi
Natasha Christiansen får også ChatGPT til at skrive historier, der kan gøre det lettere for familien at lave ting sammen. Historierne handler om forskellige sociale situationer. Natasha forklarer:
”Min autistiske datter kan have svært ved at forstå visse sociale spilleregler. Hvis nogen i skolen siger noget for sjov, forstår hun det ofte meget konkret. Der var en i klassen, der spøgte med, at han ville spise hende, og det blev hun bange for. Så prompter jeg ChatGPT til at skrive en historie med ironi og opdigtede figurer, som hun kan relatere til. Bagefter læser vi historierne sammen, og så kan hun bruge dem til at forberede forskellige situationer.”
Natasha fortæller, at deres yngste datter også er blevet påvirket af, at hendes storesøster har haft det så svært.
”Derfor har jeg også brugt ChatGPT til familieterapi. Det kan være svært at zoome ud, når man selv står midt i det, og her har det været rart med et værktøj, der kan hjælpe mig med at forstå forskellige reaktionsmønstre. Når jeg har været presset, er jeg måske blevet sur på den lille, fordi hun ’burde’ være den nemme og velfungerende. Så sparrer jeg med ChatGPT og får nogle strategier til at håndtere sådan en situation.”
Kunstig intelligens (AI): Begrebet dækker over mange ting. Overordnet er kunstig intelligens en teknologi, hvor computere trænes til at efterligne menneskelig intelligens, fx at løse problemer eller forstå sprog. Det kaldes også AI (efter det engelske artificial intelligence) og bygger ofte på maskinlæring, hvor maskinen bliver klogere ved at analysere enorme mængder data frem for blot at følge faste regler.
Chatbot: Et computerprogram, som du kan tale eller skrive med i et naturligt sprog. Fx ChatGPT, Gemini eller Claude. I en terapeutisk sammenhæng fungerer den som en samtalepartner, der er programmeret til at lytte, stille uddybende spørgsmål og give støttende svar baseret på det, du skriver. ”Hjernen” bag chatbots kaldes en sprogmodel. Det er et system, der er trænet på ufatteligt meget tekst for at kunne forudsige, hvilket ord der mest logisk følger efter det forrige. Den "forstår" ikke følelser, men er ekspert i at efterligne menneskelig empati og dialog.
Prompt: Det input, spørgsmål eller den instruktion, som du giver til chatbotten. Altså den tekst, du skriver til chatbotten. Kvaliteten af de svar, man får fra en AI-terapeut, afhænger ofte af, hvor præcis og beskrivende ens "prompt" er – jo bedre instruktion, jo mere relevant svar.
Dataprivatliv (og GDPR): Reglerne for, hvordan personlige oplysninger bliver gemt og brugt. Når man bruger en AI-terapeut, deler man ofte meget private tanker, og det er essentielt at vide, om samtalen bliver anonymiseret, eller om den bliver brugt til at træne fremtidige modeller.
Algoritme: En trin-for-trin-opskrift eller en række instruktioner, som en computer følger for at løse en opgave eller tage en beslutning. I en AI-terapeut er det algoritmerne, der sorterer i dine ord og bestemmer, hvilket svar der er mest passende at give dig lige nu.
Algoritmisk bias: En form for skævhed eller fordom i AI’ens svar. Hvis en chatbot er trænet på data, der mangler kulturel forståelse eller er ensidig, kan den give råd, der er upassende eller diskriminerende. I terapi er det ekstra vigtigt at være opmærksom på, om AI'en forstår brugerens specifikke baggrund.
Hallucination: Når en AI finder på fakta eller informationer, som lyder overbevisende, men er lodret forkerte. I en terapeutisk kontekst er dette kritisk, da en chatbot potentielt kan give faktuelt forkerte råd om medicin eller psykiske lidelser, mens den lyder meget selvsikker.
Klar advarsel
Tidligere brugte Natasha ChatGPT omtrent hver anden dag. I dag er det ikke engang ugentligt. Hun har nemlig allerede fået mange gode redskaber og strategier til hverdagen. Hun er også meget opmærksom på, hvordan hun bruger ChatGPT. Hun arbejder selv med maskinlæring og forstår både begrænsninger og risici forbundet med kunstig intelligens:
”Jeg er meget bevidst om, at sprogmodeller (fx ChatGPT, red.) er ren statistik. Jeg holder mig til korte spørgsmål og har aldrig lange samtaler med den.”
ChatGPT og andre sprogmodeller er jo lavet til altid at ville give et svar, og derfor kan man hurtigt få nogle forkerte konklusioner. Den prøver at fornemme, hvad du gerne vil høre.
Natasha Christiansen bruger udelukkende ChatGPT til research og som sparringspartner:
”Jeg vil aldrig bruge den til at diagnosticere eller til at få noget til at passe ind i en diagnose. Den skal ikke bruges til at danne konklusioner. ChatGPT og andre sprogmodeller er jo lavet til altid at ville give et svar, og derfor kan man hurtigt få nogle forkerte konklusioner. Den prøver at fornemme, hvad du gerne vil høre.”
Hvis man skal bruge ChatGPT, skal det være varsomt, mener hun. Selv bruger hun den betalte udgave for at have større sikkerhed over sine data. Hun minder om, at ”hvis produktet er gratis, så er du produktet”. Hvis annoncer en dag begynder at blive integreret i ChatGPT, vil det fx blive meget problematisk, hvis den kender til hendes familiehistorik.
Natasha Christiansen har også et godt råd:
”Jeg skriver altid, at den ikke skal gemme noget til hukommelsen. Jeg starter nye samtaler hver gang, og jeg forsøger at gøre den så objektiv som muligt. Den skal give strategier og komme med forslag, aldrig beslutninger.”