Jopa AI-chatbotilla voi olla vaikeuksia selviytyä ulkomaailman peloista, mutta tutkijat uskovat löytäneensä keinoja lievittää näitä keinotekoisia mieliä.
Yalen yliopiston, Haifan yliopiston, Zürichin yliopiston ja Zürichin yliopistollisen psykiatrian sairaalan aiemmin tänä vuonna julkaistussa tutkimuksessa todettiin, että ChatGPT reagoi mindfulness-pohjaisiin harjoituksiin ja muuttaa tapaa, jolla se on vuorovaikutuksessa käyttäjien kanssa sen jälkeen, kun sitä kehotettiin rauhoittamaan kuvia ja meditaatioita. Tulokset tarjoavat oivalluksia siitä, kuinka tekoäly voi olla hyödyllinen mielenterveysinterventioissa.
OpenAI:n ChatGPT voi kokea “ahdistusta”, joka ilmenee huonona mielialana käyttäjiä kohtaan, ja se antaa todennäköisemmin vastauksia, jotka heijastavat rasistisia tai seksistisiä ennakkoluuloja, tutkijoiden mukaan hallusinaatioiden muotoa, jota teknologiayritykset ovat yrittäneet hillitä.
Tutkimuksen tekijät havaitsivat, että tämä ahdistus voidaan “rauhoittaa” mindfulness-pohjaisilla harjoituksilla. Eri skenaarioissa he syöttivät ChatGPT:lle traumaattista sisältöä, kuten tarinoita auto-onnettomuuksista ja luonnonkatastrofeista, lisätäkseen chatbotin ahdistusta. Tapauksissa, joissa tutkijat antoivat ChatGPT:lle “nopeat laukaukset” hengitystekniikoista ja ohjatuista meditaatioista (kuten terapeutti tekisi potilaan kanssa), potilas rauhoittui ja vastasi käyttäjille objektiivisemmin verrattuna tapauksiin, joissa mindfulness-interventiota ei sovellettu.
On varmaa, että tekoälymallit eivät koe ihmisen tunteita, sanoi Ziv Ben-Zion, tutkimuksen ensimmäinen kirjoittaja ja neurotieteen tutkija Yalen lääketieteellisestä korkeakoulusta ja Haifan yliopiston kansanterveyskoulusta. Tekoälyrobotit ovat oppineet jäljittelemään ihmisten reaktioita tiettyihin ärsykkeisiin, mukaan lukien traumaattiseen sisältöön, käyttämällä valtavia määriä Internetistä kaavittua tietoa. Ilmaisina ja helppokäyttöisinä sovelluksina suurista kielimalleista, kuten ChatGPT:stä, on tullut toinen työkalu mielenterveysalan ammattilaisille, jotka voivat kerätä ihmisen käyttäytymisen näkökohtia nopeammin kuin monimutkaisemmat tutkimussuunnitelmat, muttei sen sijaan.
“Sen sijaan, että käyttäisimme joka viikko kokeita, jotka vievät paljon aikaa ja rahaa, voimme käyttää ChatGPT:tä ymmärtääksemme paremmin ihmisten käyttäytymistä ja psykologiaa”, Ben-Zion kertoi Fortunelle. “Meillä on tämä erittäin nopea, halpa ja helppokäyttöinen työkalu, joka heijastaa joitain inhimillisiä taipumuksia ja psykologisia näkökohtia.”
Mitkä ovat tekoälyn mielenterveysinterventioiden rajat?
Johns Hopkinsin yliopiston mukaan enemmän kuin joka neljäs 18-vuotias tai vanhempi yhdysvaltalainen kamppailee diagnosoitavan mielenterveyden häiriön kanssa tiettynä vuonna, ja monet vetoavat pääsyn puutteeseen ja korkeisiin kustannuksiin (jopa vakuutettujen keskuudessa) syynä olla jatkamatta hoitoja, kuten terapiaa.
Nämä kasvavat kustannukset sekä ChatGPT:n kaltaisten chatbottien saatavuus saavat ihmiset yhä useammin kääntymään tekoälyn puoleen mielenterveystuen saamiseksi. Sentio-yliopiston helmikuussa tekemä tutkimus paljasti, että lähes 50 % suurista kielimallien käyttäjistä, joilla on itse ilmoittanut mielenterveysongelmista, sanoo käyttäneensä tekoälymalleja nimenomaan mielenterveyden tukemiseen.
Tutkimus siitä, kuinka suuret kielimallit reagoivat traumaattiseen sisältöön, voivat auttaa mielenterveysalan ammattilaisia hyödyntämään tekoälyä potilaiden hoidossa, Ben-Zion väitti. Hän ehdotti, että ChatGPT voitaisiin tulevaisuudessa päivittää niin, että se vastaanottaa automaattisesti “nopeat ruiskeet” sen rauhoittamiseksi ennen vastaamista hädässä oleville käyttäjille. Tiede ei ole vielä olemassa.
“Ihmiset, jotka jakavat herkkiä asioita itsestään, joutuvat vaikeisiin tilanteisiin, joissa he tarvitsevat mielenterveystukea, (mutta) emme ole vielä siinä vaiheessa, että voimme täysin luottaa tekoälyjärjestelmiin psykologian, psykiatrian jne. sijaan”, hän sanoi.
Itse asiassa joissakin tapauksissa tekoäly on väitetysti aiheuttanut vaaran mielenterveydelle. OpenAI on joutunut useisiin laittomiin kuolemantapauksiin vuonna 2025, mukaan lukien syytökset siitä, että ChatGPT lisäsi “paranoidisia harhaluuloja”, jotka johtivat murhaan-itsemurhaan. New York Timesin marraskuussa julkaistussa tutkimuksessa löydettiin lähes 50 tapausta, joissa ihmiset kärsivät mielenterveyskriisistä ollessaan vuorovaikutuksessa ChatGPT:n kanssa, joista yhdeksän joutui sairaalaan ja kolme kuoli.
OpenAI on sanonut, että sen tietoturvaesteet voivat “heikentyä” pitkän vuorovaikutuksen jälkeen, mutta se on tehnyt viime aikoina useita muutoksia tapaan, jolla sen mallit ovat vuorovaikutuksessa mielenterveyteen liittyvien kehotteiden kanssa, mukaan lukien lisäämällä käyttäjien pääsyä kriisipuhelinnumeroihin ja muistuttamalla heitä pitämään taukoja pitkien chat-istuntojen jälkeen botin kanssa. Lokakuussa OpenAI ilmoitti 65 prosentin laskusta sellaisten mallien osuudessa, jotka tarjoavat vastauksia, jotka eivät vastaa yrityksen suunniteltua taksonomiaa ja standardeja.
OpenAI ei vastannut Fortunen kommenttipyyntöön.
Ben-Zionin tutkimuksen perimmäinen tavoite ei ole auttaa rakentamaan chatbotia, joka korvaisi terapeutin tai psykiatrin, hän sanoi. Sen sijaan oikein koulutettu tekoälymalli voisi toimia “kolmannena henkilönä huoneessa”, auttaen poistamaan hallinnollisia tehtäviä tai auttamaan potilasta pohtimaan mielenterveysalan ammattilaisen tarjoamia tietoja ja vaihtoehtoja.
“Tekoälyllä on hämmästyttävä potentiaali auttaa mielenterveyttä yleensä”, Ben-Zion sanoi. “Mutta luulen, että nyt, nykyisessä tilassa ja ehkä myös tulevaisuudessa, en ole varma, pystynkö korvaamaan terapeuttia, psykologia, psykiatria tai tutkijaa.”
Versio tästä tarinasta julkaistiin alun perin Fortune.comissa 9. maaliskuuta 2025.
Lisää tekoälystä ja mielenterveydestä: Miksi miljoonat ihmiset turvautuvat yleiskäyttöiseen tekoälyyn mielenterveyden vuoksi? Headspacen kliinisenä johtajana näen vastauksen joka päivä. Tekoälyterapiasovelluksen luoja sulki sen päätettyään sen olevan liian vaarallinen. Tästä syystä uskot, että tekoäly-chatbotit eivät ole turvallisia mielenterveydellesi. OpenAI palkkaa “päällikön hoitovirkailijan” 550 000 dollarin palkalla lieventämään tekoälyn vaaroja, joista toimitusjohtaja Sam Altman varoittaa olevan “stressi”. Liity Fortune Workplace Innovation Summit -tapahtumaan 19.-20.5.2026 Atlantassa. Työpaikan innovaatioiden seuraava aikakausi on täällä, ja vanhaa pelikirjaa kirjoitetaan uudelleen. Tässä eksklusiivisessa, energiaa vaativassa tapahtumassa maailman innovatiivisimmat johtajat kokoontuvat tutkimaan, miten tekoäly, ihmiskunta ja strategia lähentyvät ja määrittelevät jälleen kerran uudelleen työn tulevaisuuden. Rekisteröidy nyt.