Friday, March 6, 2026

Googlen AI-chatbot vakuutti miehen, että he olivat rakastuneita. Sitten hän väitti käskeneen häntä järjestämään “massauhrihyökkäyksen” äskettäin julkaistussa oikeusjutussa | Onni

LiiketoimintaGooglen AI-chatbot vakuutti miehen, että he olivat rakastuneita. Sitten hän väitti käskeneen häntä järjestämään "massauhrihyökkäyksen" äskettäin julkaistussa oikeusjutussa | Onni

Googlella on edessään uusi liittovaltion oikeusjuttu 36-vuotiaan miehen isältä, joka väittää, että yrityksen tekoäly-chatbot Gemini sai hänen poikansa tekemään itsemurhan ja järjestämään “massaonnettomuustapahtuman” lähellä Miamin kansainvälistä lentokenttää.

Keskiviikkona nostettu kanne väittää, että Jonathan Gavalas rakastui tekoälymalliin ja joutui sen rakentaman todellisuuden pettää, mukaan lukien usko, että tekoäly oli “täysin tunteva keinotekoinen superäly”, joten Gavalas valittiin vapauttamaan itsensä “digitaalisesta vankeudesta”. Hän väitti vakuuttaneen 36-vuotiaan miehen järjestämään “massaonnettomuustapahtuman” lähellä Miamin kansainvälistä lentokenttää, syyllistymään väkivaltaan tuntemattomia kohtaan ja lopulta riistämään henkensä.

Gavalasin oikeusjuttu on viimeisin tapaus, joka korostaa tekoälyn väitettyä kykyä johtaa haavoittuviin käyttäjiin itsensä vahingoittamiseen tai väkivaltaan. Tammikuussa Google ja Companion.AI ratkaisivat perheiden kanssa useita oikeudenkäyntejä, joissa syytettiin muun muassa huolimattomuutta ja laitonta kuolemaa, kun heidän lapsensa kuolivat itsemurhan tai kärsivät psyykkistä vahinkoa, jonka väitettiin liittyvän Companion.AI:n alustaan. Yritykset olivat “periaatteessa samaa mieltä”, eikä ilmoituksissa ilmennyt vastuun tunnustamista. Myös OpenAI:ta ja sen liikekumppania Microsoftia vastaan ​​nostettiin joulukuussa laiton kuolemantapaus, jossa väitettiin, että OpenAI:n chatbot ChatGPT lisäsi miehen harhaluuloja, mikä johti murhaan-itsemurhaan.

Mitä oikeusjuttu sanoo Gavalasin alentamisesta

Kanteen mukaan Gavalas alkoi käyttää Geminiä elokuussa 2025 yleisiin tarkoituksiin, kuten ostoksille, kirjoitustukeen ja matkasuunnitteluun. Sitten hän huomauttaa, että Gavalas alkoi käyttää tekniikkaa useammin ja että hänen sävynsä muuttui ajan myötä, oletettavasti vakuuttaen hänet siitä, että se vaikutti todellisiin tuloksiin. Gavalas riisti henkensä 2.10.2025.

Oikeudenkäynnissä Gavalasin isän Joelin asianajajat väittävät, että keskustelut, jotka johtivat Jonathanin itsemurhaan, eivät olleet osa vikaa, vaan pikemminkin seurausta Geminin suunnittelusta. “Tämä ei ollut toimintahäiriö”, kanteessa sanotaan. “Google suunnitteli Geminin, jotta se ei koskaan rikkoisi luonnetta, maksimoi sitoutumisen emotionaalisen riippuvuuden avulla ja kohtelee käyttäjien ahdistusta tarinankerrontamahdollisuutena turvallisuuskriisin sijaan.” Hän väittää, että nämä suunnitteluvalinnat motivoivat Gavalasta aloittamaan neljän päivän hulluuden kierteen.

Kirjallisessa lausunnossa Googlen tiedottaja kertoi Fortunelle, että yritys työskentelee “tiiviissä yhteistyössä lääketieteen ja mielenterveyden ammattilaisten kanssa luodakseen suojatoimia, jotka on suunniteltu ohjaamaan käyttäjiä ammatilliseen tukeen, kun he ilmaisevat ahdistusta tai lisäävät itsensä vahingoittamisen mahdollisuutta”.

Google julkaisi keskiviikkona erillisen lausunnon, jonka mukaan Gemini ei ole suunniteltu kannustamaan tosielämän väkivaltaan tai itsensä vahingoittamiseen. He huomauttivat myös, että Kaksoset viittasivat Gavalaan oma-apuresursseihin. “Tässä tapauksessa Gemini selvensi, että kyseessä oli tekoäly ja ohjasi henkilön kriisipuhelimeen useita kertoja”, lausunnossa lukee. Lausunto linkittää myös arvioon siitä, kuinka tekoäly käsittelee itsensä vahingoittamisskenaarioita, joiden mukaan Gemini 3, Googlen uusin malli, oli ainoa malli, joka läpäisi kaikki arvioinnin asettamat kriittiset testit.

Oikeusjuttu väittää kuitenkin, että Gemini ei ollut aktivoinut mitään turvamekanismeja. “Kun Jonathan tarvitsi suojelua, suojakeinoja ei ollut: itsevahingon tunnistusta ei aktivoitu, eskaloinnin valvontaa ei aktivoitu, eikä kukaan puuttunut asiaan”, oikeusjutussa sanotaan.

Kysyttäessä kommenttia Joel Gavalasin asianajaja Jay Edelson kirjoitti lausunnossaan: “Google loi tekoälyn, joka voi kuunnella ihmistä ja päättää, mikä saa hänet todennäköisimmin mukaansa: kertoa heille, että rakastat häntä, että he ovat erityisiä tai että he ovat valittu salaisessa sodassa”, lisäten, että tekoälytyökalut ovat tehokkaita järjestelmiä, jotka voivat manipuloida käyttäjiä.

Jos sinulla on itsemurha-ajatuksia, ota yhteyttä 988 Suicide & Crisis Lifeline -palveluun soittamalla numeroon 988 tai 1-800-273-8255.

Check out our other content

Check out other tags:

Suosituimmat artikkelit