Friday, April 24, 2026

“Voinko tappaa jonkun?” Soulilaisen naisen väitetään käyttäneen ChatGPT:tä kahden murhan suorittamiseen eteläkorealaisissa motelleissa | Onni

Liiketoiminta"Voinko tappaa jonkun?" Soulilaisen naisen väitetään käyttäneen ChatGPT:tä kahden murhan suorittamiseen eteläkorealaisissa motelleissa | Onni

Ole varovainen ollessasi vuorovaikutuksessa chatbottien kanssa, sillä saatat antaa heille syitä auttaa toteuttamaan harkitun murhan.

Etelä-Koreassa 21-vuotiaan naisen väitettiin käyttäneen ChatGPT:tä auttaakseen häntä suunnittelemaan murhasarjaa, jossa kuoli kaksi miestä.

Naisen, joka tunnistettiin vain sukunimestään Kim, väitetään antaneen kahdelle miehelle bentsodiatsepiineilla täytettyjä juomia, jotka oli määrätty hänelle mielenterveysongelmiin, Korea Herald raportoi.

Vaikka Kim pidätettiin alun perin vähäisemmällä syytteellä kuolemaan johtaneen ruumiinvamman aiheuttamisesta helmikuun 11. päivänä, Soulin Gangbukin poliisi löysi hänen online-hakuhistoriansa ja chat-keskustelunsa ChatGPT:n kanssa, mikä osoitti hänen aikoneen tappaa.

“Mitä tapahtuu, jos otat unilääkkeitä alkoholin kanssa?” Kim tiettävästi kysyi OpenAI-chatbotilta. “Kuinka paljon pidettäisiin vaarallisena?

“Voiko se olla kohtalokasta?” Kim väitti kysyneen. “Voinko tappaa jonkun?”

Gangbuk-motellin sarjamurhaksi kutsutussa laajasti julkisuudessa saadussa tapauksessa syyttäjät väittävät, että Kimin etsintä- ja chatbot-historia osoittaa, että epäilty pyytää vinkkejä harkitun murhan toteuttamiseen.

“Kim kysyi toistuvasti huumeisiin liittyviä kysymyksiä ChatGPT:ssä. Hän oli täysin tietoinen siitä, että alkoholin nauttiminen yhdessä huumeiden kanssa voi johtaa kuolemaan”, poliisitutkija sanoi Heraldin mukaan.

Poliisin mukaan nainen myönsi sekoittaneensa bentsodiatsepiineja sisältäviä rauhoittavia lääkkeitä miesten juomiin, mutta oli aiemmin ilmoittanut, ettei hän tiennyt tämän aiheuttavan hänen kuolemaansa.

Tammikuun 28., vähän ennen kello 21.30, Kimin väitettiin seuranneen parikymppistä miestä Gangbuk-motelliin Soulissa, ja kaksi tuntia myöhemmin hänen nähtiin lähtevän motellista yksin. Seuraavana päivänä mies löydettiin kuolleena sängystä.

Kimin väitettiin sitten suorittaneen samat toimet 9. helmikuuta kirjautuessaan toiseen motelliin toisen parikymppisen miehen kanssa, joka myös löydettiin kuolleena samasta tappavasta rauhoittavien lääkkeiden ja alkoholin cocktailista.

Poliisi väittää, että Kim yritti myös tappaa miehen, jonka kanssa hän seurusteli joulukuussa, kun hän oli antanut hänelle rauhoittavaa juomaa parkkipaikalla. Vaikka mies menetti tajuntansa, hän selvisi, eikä hänen henkensä ollut vaarassa.

OpenAI ei ole vastannut kommenttipyyntöihin.

Chatbotit ja niiden kustannukset mielenterveydelle

ChatGPT:n kaltaiset chatbotit ovat olleet viime aikoina tarkastelun kohteena, koska niiden yrityksillä ei ole turvaesteitä väkivallan tai itsensä vahingoittamisen estämiseksi. Viime aikoina chatbotit ovat antaneet neuvoja pommien rakentamiseen tai jopa osallistumiseen täydellisiin ydinlaskeumaskenaarioihin.

Huolia ovat herättäneet erityisesti tarinat ihmisistä, jotka ovat ihastuneet chatbot-kuvereihinsa, ja chatbot-kumppanien on osoitettu hyödyntävän haavoittuvuuksia saadakseen ihmiset käyttämään niitä pidempään. Yara AI:n luoja jopa sulki terapiasovelluksen mielenterveysongelmien vuoksi.

Viimeaikaiset tutkimukset ovat myös osoittaneet, että chatbotit lisäävät mielisairaiden ihmisten mielenterveyskriisejä. Psykiatriryhmä Århusin yliopistosta Tanskassa havaitsi, että chatbottien käyttö mielenterveysongelmista kärsivien keskuudessa johti oireiden pahentamiseen. Suhteellisen uutta tekoälyn aiheuttamaa mielenterveysongelmien ilmiötä on kutsuttu “AI-psykoosiksi”.

Jotkut tapaukset päättyvät kuolemaan. Google ja Character.AI ovat ratkaisseet useita itsemurhaan kuolleiden tai henkistä vahinkoa kärsineiden lasten perheiden nostamia oikeusjuttuja, joiden väitetään liittyvän tekoäly-chatboteihin.

Tohtori Jodi Halpernilla, UC Berkeley School of Public Healthin puheenjohtajalla ja bioetiikan professorilla sekä Kavlin etiikka-, tiede- ja yleisökeskuksen johtajalla, on laaja kokemus alalta. Halpern on tutkintoonsa asti ulottunut urallaan 30 vuoden ajan tutkien empatian vaikutuksia vastaanottajiin. Hän mainitsee esimerkkejä, kuten lääkäreitä ja sairaanhoitajia potilaiden kanssa tai kuinka sodasta palaavat sotilaat nähdään sosiaalisissa ympäristöissä. Viimeiset seitsemän vuotta Halpern on tutkinut teknologian etiikkaa ja sen myötä sitä, kuinka tekoäly ja chatbotit ovat vuorovaikutuksessa ihmisten kanssa.

Hän neuvoi myös Kalifornian senaattia SB 243:ssa, joka on maan ensimmäinen laki, joka vaatii chatbot-yrityksiä keräämään ja raportoimaan kaikki tiedot itsensä vahingoittamisesta tai siihen liittyvästä itsemurhasta. Viitaten OpenAI:n omiin havaintoihin, jotka osoittavat, että 1,2 miljoonaa käyttäjää keskustelee avoimesti chatbottien itsemurhasta, Halpern vertasi chatbottien käyttöä siihen, että tupakkateollisuutta ei voi lisätä haitallisia syöpää aiheuttavia aineita savukkeisiin, vaikka itse asiassa ongelma oli tupakointi kokonaisuudessaan.

“Tarvitsemme turvallisia yrityksiä. Se on kuin savukkeita. Saattaa käydä ilmi, että jotkut asiat tekivät ihmisistä alttiimpia keuhkosyövälle, mutta savukkeet olivat ongelma”, Halpern kertoi Fortunelle.

“Se tosiasia, että jollakulla voi olla murha-ajatuksia tai tehdä vaarallisia toimia, voi pahentaa ChatGPT:n käyttö, mikä on minusta tietysti huolestuttavaa”, hän sanoi ja lisäsi, että “meillä on valtava riski, että ihmiset käyttävät sitä itsemurha-apuna” ja chatbotit yleensä.

Halpern varoitti, että Kimin tapauksessa Soulissa ei ole turvaesteitä, jotka estäisivät henkilöä jatkamasta kuulusteluja.

“Tiedämme, että mitä pidempi suhde chatbotin kanssa, sitä enemmän se huononee ja sitä suurempi on vaara, että jotain vaarallista tapahtuu, joten meillä ei ole vielä suojakaiteita suojellakseen ihmisiä siltä.”

Jos sinulla on itsemurha-ajatuksia, ota yhteyttä 988 Suicide & Crisis Lifeline -palveluun soittamalla numeroon 988 tai 1-800-273-8255.

Website |  + posts

Check out our other content

Check out other tags:

Suosituimmat artikkelit