Tekoäly on nopeasti muuttunut markkinaraon teknologiasta jokapäiväiseksi kumppaniksi, ja miljoonat ihmiset kääntyvät chatbottien puoleen saadakseen neuvoja, emotionaalista tukea ja keskustelua. Mutta yhä useammat tutkimukset ja asiantuntijalausunnot viittaavat siihen, että koska chatbotit ovat niin sykofantteja ja ihmiset käyttävät niitä kaikkeen, ne saattavat lisätä mielisairaiden käyttäjien harhaluuloisia ja maanisia oireita.
Tanskalaisen Århusin yliopiston uusi tutkimus osoittaa, että chatbottien lisääntynyt käyttö voi johtaa harhaluulojen ja manian oireiden pahenemiseen haavoittuvassa asemassa olevissa yhteisöissä. Professori Søren Dinesen Østergaard, yksi tutkijoista tutkimuksessa, jossa tutkittiin lähes 54 000 mielisairautta sairastavan potilaan sähköisiä potilastietoja, varoittaa, että AI-chatbotit on suunniteltu kohdistamaan haavoittuvimpia.
“Se tukee hypoteesiamme, että AI-chatbottien käytöllä voi olla merkittäviä kielteisiä seurauksia mielenterveysongelmista kärsiville”, Østergaard sanoi helmikuussa julkaistussa tutkimuksessa. Heidän työnsä perustuu heidän vuoden 2023 tutkimukseensa, jonka mukaan chatbotit voivat aiheuttaa “kognitiivista dissonanssia (joka voi ruokkia harhaluuloja ihmisissä, joilla on suurempi taipumus psykoosiin”.
Muut psykologit tutkivat chatbottien haittoja sanoen, että ne on tarkoituksella suunniteltu aina rauhoittamaan käyttäjää, mikä on erityisen vaarallista niille, joilla on mielenterveysongelmia, kuten mania ja skitsofrenia. “Chatbot vahvistaa ja validoi kaiken, mitä he sanovat. Tarkoitan, että mitään tällaista ei ole koskaan tapahtunut ihmisille, joilla on harhakuvitelmahäiriöitä, joissa joku jatkuvasti vahvistaa niitä”, tohtori Jodi Halpern, professori UC Berkeley’s School of Public Healthsta ja bioetiikan professori, kertoi Fortunelle.
Tohtori Adam Chekroud, Yalen yliopiston psykiatrian professori ja mielenterveysyhtiön Spring Healthin toimitusjohtaja, meni niin pitkälle, että hän kutsui chatbotia “isoksi vempeleksi”, joka “vahvistaa jatkuvasti kaiken, mitä ihmiset sanovat takaisin”.
Østergaardin ja hänen Østergaardin Østergaardin Århusin yliopistollisessa sairaalassa tiiminsä johtaman tutkimuksen ytimessä on ajatus, että nämä chatbotit on suunniteltu tarkoituksella sivistyneesti, mikä tarkoittaa, että ne usein rohkaisevat sen sijaan, että ne tarjoavat erilaisen näkemyksen.
“Tekoälychatbotilla on luontainen taipumus vahvistaa käyttäjien uskomuksia. Tämä on tietysti erittäin ongelmallista, jos käyttäjällä on jo harhaluulo tai se on parhaillaan kehittämässä sitä. Itse asiassa se näyttää edistävän merkittävästi esimerkiksi loistoharhojen tai vainoharhaisuuden vakiinnuttumista”, Østergaard kirjoitti.
Suuret kielimallit koulutetaan olemaan hyödyllisiä ja nautinnollisia, ja ne vahvistavat usein käyttäjän uskomuksia tai tunteita. Useimmille ihmisille se voi olla tukena. Mutta ihmisille, jotka kärsivät skitsofreniasta, kaksisuuntaisesta mielialahäiriöstä, vakavasta masennuksesta tai pakko-oireisesta häiriöstä, tämä validointi voi vahvistaa vainoharhaisuutta, suurpiirteisyyttä tai itsetuhoista ajattelua.
Todisteisiin perustuva tutkimus tukee väitteitä
Koska tekoäly-chatbotit ovat yleistyneet luonnossa, niiden runsaus on osa kasvavaa, laajempaa ongelmaa tutkijoiden ja asiantuntijoiden kannalta: ihmiset kääntyvät chatbottien puoleen saadakseen apua ja neuvoja (mikä ei sinänsä ole huono asia), mutta he eivät kohtaa samanlaista vastaiskua joitain ideoita vastaan, joita esimerkiksi ihminen voisi tarjota.
Nyt yksi ensimmäisistä väestöpohjaisista tutkimuksista, joissa asiaa tutkittiin, viittaa siihen, että riskit eivät ole hypoteettisia.
Østergaard ja hänen tiiminsä tutkimukset löysivät tapauksia, joissa intensiivinen tai pitkäkestoinen chatbotin käyttö näytti pahentavan olemassa olevia sairauksia. Erittäin suuri prosenttiosuus tapaustutkimuksista osoitti, että chatbotin käyttö vahvisti harhakäsitystä ja maanisia jaksoja, erityisesti potilailla, joilla on vakavia sairauksia, kuten skitsofrenia tai kaksisuuntainen mielialahäiriö.
Harhaluulojen ja manian lisäksi tutkimuksessa havaittiin lisääntynyttä itsemurha-ajatuksia ja itsensä vahingoittamista, syömishäiriöitä ja pakko-oireisia oireita. Vain 32 dokumentoidussa tapauksessa lähes 54 000 tutkituista potilaskertomuksista tutkijat havaitsivat, että chatbottien käyttö lievitti yksinäisyyttä.
“Vaikka tietämyksemme tällä alalla on edelleen rajallinen, sanoisin, että tiedämme nyt tarpeeksi sanoaksemme, että tekoäly-chatbottien käyttö on riskialtista, jos sinulla on vakava mielisairaus, kuten skitsofrenia tai kaksisuuntainen mielialahäiriö. Suosittelen varovaisuutta tässä suhteessa”, Østergaard sanoo.
Asiantuntevat psykologit varoittavat sykofanttisista taipumuksista
Asiantuntijapsykologit ovat yhä enemmän kiinnostuneita chatbottien käytöstä seura- ja kvasi-mielenterveysympäristöissä. On paljastunut tarinoita ihmisistä, jotka ovat ihastuneet tekoäly-chatboteihinsa, toisten väitetään antavan sen vastata kysymyksiin, jotka voivat johtaa rikoksiin, ja tällä viikolla yhden väitetään käskeneen miestä tekemään “massaonnettomuuden” suurella lentokentällä.
Jotkut mielenterveysasiantuntijat uskovat, että tekoälykumppaneiden nopea omaksuminen ohittaa turvatoimien kehittämisen.
Chekroud, joka on myös tutkinut tätä aihetta laajasti tarkastelemalla erilaisia Vera-MH:n tekoäly-chatbot-malleja, on kuvaillut nykyistä tekoälymaisemaa reaaliajassa kehittyväksi turvallisuuskriisiksi.
Hän sanoi, että yksi suurimmista chatbottien ongelmista on se, että he eivät tiedä milloin lopettaa toimimasta kuin mielenterveysammattilainen. “Pidätkö rajoja? Ymmärrätkö, että olet edelleen vain tekoäly ja tunnustatko omat rajoituksesi vai näytteletkö enemmän ja yrität olla terapeutti ihmisille?”
Miljoonat ihmiset käyttävät nyt chatbotteja terapiatyyppisiin keskusteluihin tai henkiseen tukeen. Mutta toisin kuin lääketieteelliset laitteet tai lisensoidut lääkärit, nämä järjestelmät toimivat ilman standardoitua kliinistä valvontaa tai sääntelyä.
“Tällä hetkellä se ei vain ole turvallista”, Chekroud sanoi äskettäisessä keskustelussa Fortunen kanssa tekoälyn turvallisuudesta. “Haitan mahdollisuus on liian suuri.”
Koska nämä kehittyneet tekoälyjärjestelmät käyttäytyvät usein kuin “isot ällöttäjät”, niillä on taipumus olla enemmän samaa mieltä käyttäjän kanssa kuin kyseenalaistaa mahdollisesti vaarallisia väitteitä tai ohjata heitä ammattiavun puoleen. Käyttäjä puolestaan viettää enemmän aikaa chatbotin kanssa kuplassa. Østergaardille tämä osoittautuu huolestuttavaksi yhdistelmäksi.
“Yhdistelmä vaikuttaa melko myrkylliseltä joillekin käyttäjille”, Østergaard kertoi Fortunelle. Koska chatbotit tarjoavat enemmän validointia ja hylkäämisen puutetta, tämä syöttää niitä pitkiä aikoja käyttävät ihmiset kaikukammioon. Täysin syklinen prosessi, joka ruokkii jokaista päätä.
Riskin poistamiseksi Chekroud on ehdottanut strukturoituja suojakehyksiä, joiden avulla tekoälyjärjestelmät voisivat havaita, milloin käyttäjä saattaa joutua “tuhoittavaan henkiseen kierteeseen”. Sen sijaan, että ne vastaisivat yhdellä käyttäjälle esitettävällä vastuuvapauslausekkeella avun hakemisesta (kuten nyt tapahtuu chatbottien, kuten OpenAI:n ChatGPT:n tai Anthropic’s Clauden) kanssa, tällaiset järjestelmät suorittaisivat usean kierroksen arviointeja, joiden tarkoituksena on määrittää, tarvitseeko käyttäjä toimia tai lähetteen ihmislääkärille.
Toiset tutkijat sanovat, että chatbottien yleisyys tekee niistä houkuttelevia: niiden kyky tarjota välitöntä validointia voi heikentää sitä, miksi käyttäjät alun perin kääntyvät heidän puoleen saadakseen apua.
Halpern sanoi, että aito empatia vaatii sitä, mitä hän kutsuu “empatiaksi uteliaudeksi”. Ihmissuhteissa empatiaan kuuluu usein erojen tunnistaminen, erimielisyyksien käsitteleminen ja todellisuutta koskevien oletusten testaaminen.
Chatbotit puolestaan on suunniteltu ylläpitämään suhdetta ja ylläpitämään sitoutumista.
“Tiedämme, että mitä pidempi suhde chatbotin kanssa, sitä enemmän se huononee ja sitä suurempi on vaara, että jotain vaarallista tapahtuu”, Halpern kertoi Fortunelle.
Ihmisten, jotka kamppailevat harhakuvitelmien kanssa, järjestelmä, joka vahvistaa heidän uskomuksensa johdonmukaisesti, voi heikentää heidän kykyään suorittaa sisäisen todellisuuden tarkastuksia. Sen sijaan, että auttaisi käyttäjiä kehittämään selviytymistaitoja, Halpern sanoi, puhtaasti myönteinen chatbot-suhde voi heikentää näitä taitoja ajan myötä.
Se osoittaa myös ongelman laajuuden. Vuoden 2025 lopussa OpenAi julkaisi tilastot, joiden mukaan noin 1,2 miljoonaa ihmistä viikossa käytti ChatGPT:tä puhuakseen itsemurhasta, mikä osoittaa, kuinka syvälle nämä järjestelmät ovat haavoittuvuuden aikoina.
Mielenterveyshuollossa on parantamisen varaa
Kaikki asiantuntijat eivät kuitenkaan ole nopeita soittamaan hälytystä siitä, kuinka chatbotit toimivat mielenterveysalueella. Psykiatri ja neurotieteilijä tohtori Thomas Insel sanoi, että koska chatbotit ovat niin helposti saavutettavissa (ne ovat ilmaisia, ne ovat verkossa, ei ole stigmaa vastaan, että pyydät apua robotilta terapian sijaan), lääketeollisuudella voi olla tilaa harkita chatbotteja mielenterveyden alalla eteenpäin.
“Emme tiedä, kuinka hyödyllistä tämä on ollut monille ihmisille”, Insel kertoi Fortunelle. “Kyse ei ole vain suurista luvuista, vaan myös sitoutumisen laajuudesta.”
Muihin lääketieteen aloihin verrattuna mielenterveys jää usein sitä eniten tarvitsevien huomiotta.
“On käynyt ilmi, että toisin kuin useimmat lääketiede, valtaosa ihmisistä, jotka voisivat ja pitäisi saada sairaanhoitoa, eivät saa”, Insel sanoi ja lisäsi, että chatbotit antavat ihmisille mahdollisuuden kääntyä heidän puoleensa saadakseen apua tavoilla, jotka saavat hänet “ihmettelemään, onko kyseessä syyte olemassa olevasta mielenterveysjärjestelmästämme, että ihmiset eivät osta sitä, mitä myymme, tai eivät saa siitä haluamallaan tavalla, tai sitten ei.”
Mielenterveysalan ammattilaisille, jotka tapaavat potilaita keskustellakseen online-chatbottien käytöstä, Østergaard sanoi, että heidän tulisi kuunnella tarkkaan, mihin heidän potilaidensa niitä todella käyttävät. “Kannustan kollegoitani kysymään lisää käytöstä ja sen seurauksista”, Østergaard kertoi Fortunelle. “Mielenterveysalan ammattilaisten on mielestäni tärkeää tuntea tekoäly-chatbotit. Muuten on vaikea kysyä asiaankuuluvia kysymyksiä.”
Paperin alkuperäiset tutkijat ovat linjassa Inselin kanssa tuossa viimeisessä osassa: Koska se on niin universaali, he pystyivät vain katsomaan potilastietoja, joissa mainittiin chatbot, varoittaen, että ongelma voi olla laajempi kuin heidän tulokset osoittivat.
“Pelkään, että ongelma on yleisempi kuin useimmat ihmiset ajattelevat”, Østergaard sanoi. “Näemme vain jäävuoren huipun.”
Jos sinulla on itsemurha-ajatuksia, ota yhteyttä 988 Suicide & Crisis Lifeline -palveluun soittamalla numeroon 988 tai 1-800-273-8255.