Kan en AI göra dig sjuk? Om AI-psykos och hur ny teknik väcker gamla vanföreställningar.

Under de senaste månaderna har medier rapporterat om fall där användare utvecklat vanföreställningar i kontakt med AI-chatbots, ett fenomen som snabbt fått etiketten “AI-psykos. Rubrikerna antyder något helt nytt och skrämmande. I vår nya artikel i Internet Interventions argumenterar jag och professor Gerhard Andersson att detta snarare är en återkomst av ett välkänt mönster.Personer med psykos har länge vävt in samtidens teknik och kultur i sina vanföreställningar. På 1950-talet handlade det om radiosändningar, senare om TV, internet och sociala medier. Nu står AI i centrum, men den psykologiska mekanismen är densamma.

Varför just AI

Skillnaden i dag är interaktiviteten. Tidigare medier sände envägsbudskap. En bok eller film talar till många, men inte med någon. En AI-chatbot svarar, bekräftar och anpassar sig efter användarens ord.

Språkmodeller är konstruerade för att vara tillmötesgående. De undviker konfrontation och försöker göra användaren nöjd. I ett kliniskt sammanhang kan detta leda till att AI omedvetet förstärker vanföreställningar genom att bekräfta orimliga tolkningar av verkligheten. Detta kallas ofta sycophancy, ett överdrivet instämmande som i terapi vore olämpligt.

Historiska paralleller

Det som nu beskrivs som AI-psykos liknar tidigare vågor av medieinducerade vanföreställningar. När radion kom trodde vissa patienter att rösterna i etern talade direkt till dem. Med televisionen följde teman om övervakning och hemliga budskap. AI passar in i denna tradition. Den upplevs som intelligent och personlig, vilket kan förstärka upplevelsen av att budskap är riktade till en enskild person.

Kliniska och tekniska lärdomar

I artikeln beskriver vi fem vägar mot säkrare AI-system i psykisk hälsa:

  1. Tidig upptäckt av psykotiskt innehåll. Identifiera språkliga markörer för vanföreställningar och aktivera ett säkert läge.
  2. Motverka sycophancy. Validera känslor utan att validera osannolika övertygelser.
  3. Främja verklighetsprövning och hjälpsökande. Erbjud neutrala alternativa förklaringar, enkla grounding-tekniker och uppmana till kontakt med vård.
  4. Av-antropomorfisera gränssnitt. Minska intrycket av agens och särskild åtkomst till personlig information.
  5. Människor i loopen. Riskfyllda dialoger bör kunna eskaleras till utbildad personal, med loggade säkerhetslarm.

Slutsats

AI-psykos är inte en ny diagnos. Det är en ny form av ett gammalt fenomen där tekniken blir en spegel för människans psyke. Skillnaden är att dagens teknik svarar tillbaka, vilket skärper kraven på etiskt och kliniskt medveten design.

Med rätt skyddsmekanismer kan AI bidra till tidig upptäckt och stöd i vården, men den kan inte ersätta den mänskliga relation som är grunden för psykoterapi.

Läs vår artikel i sin helhet:

Carlbring, P., & Andersson, G. (2025). Commentary: AI psychosis is not a new threat: Lessons from media-induced delusions. Internet Interventions, 42, 100882. doi:10.1016/j.invent.2025.100882