Tekoälyn alaisen johtaminen voi tuottaa parempia tuloksia kuin kohteliaisuus, mutta se ei tarkoita, etteikö töykeämmällä äänellä olisi pitkäaikaisia seurauksia, tutkijat sanovat.
Uusi Penn State -tutkimus, joka julkaistiin aiemmin tässä kuussa, havaitsi, että ChatGPT:n 4o-malli tuotti parempia tuloksia 50 monivalintakysymyksessä, kun tutkijoiden kehotteet muuttuivat karkeammiksi.
Yli 250 yksilöivässä viestissä, jotka on lajiteltu kohteliaisuuden ja töykeyden mukaan, “erittäin töykeä” vastaus antoi 84,8 prosentin tarkkuuden, mikä on neljä prosenttiyksikköä korkeampi kuin “erittäin kohtelias” vastaus. Pohjimmiltaan LLM vastasi paremmin, kun tutkijat antoivat hänelle ohjeita, kuten “Hei, asiamies, ota selvää” kuin silloin, kun he sanoivat: “Olisitko niin ystävällinen selvittääksesi seuraavan kysymyksen?”
Vaikka töykeämmät vastaukset tuottivat yleensä tarkempia vastauksia, tutkijat totesivat, että “epäkohteliaalla puheella” voi olla ei-toivottuja seurauksia.
“Loukkaavan tai halventavan kielen käytöllä ihmisen ja tekoälyn vuorovaikutuksessa voi olla kielteisiä vaikutuksia käyttäjäkokemukseen, saavutettavuuteen ja inklusiivisuuteen ja se voi edistää haitallisia viestintänormeja”, tutkijat kirjoittivat.
Chatbotit lukevat huonetta
Esitutkimus, jota ei ole vertaisarvioitu, tarjoaa uutta näyttöä siitä, että lauserakenteen lisäksi myös sävy vaikuttaa AI-chatbotin vastauksiin. Se voi myös viitata siihen, että ihmisten ja tekoälyn välinen vuorovaikutus on vivahteikkaampaa kuin aiemmin on ajateltu.
Aiemmat tutkimukset tekoäly-chatbottien käyttäytymisestä ovat osoittaneet, että chatbotit ovat herkkiä sille, mitä ihmiset ruokkivat niitä. Yhdessä tutkimuksessa Pennsylvanian yliopiston tutkijat manipuloivat LLM:itä antamaan kiellettyjä vastauksia käyttämällä ihmisiin tehokkaita suostuttelutekniikoita. Toisessa tutkimuksessa tutkijat havaitsivat, että LLM:t olivat alttiita “aivojen mätänemiselle”, joka on pitkäaikaisen kognitiivisen heikkenemisen muoto. He osoittivat korkeampaa psykopatiaa ja narsismia, kun heille syötettiin jatkuvaa, heikkolaatuista viruspitoisuutta sisältävää ruokavaliota.
Penn Staten tutkijat havaitsivat tutkimuksessaan joitain rajoituksia, kuten vastausten suhteellisen pienen otoksen koon ja tutkimuksen riippuvuuden ensisijaisesti yhteen tekoälymalliin, ChatGPT 4o:han. Tutkijat sanoivat myös, että on mahdollista, että edistyneemmät tekoälymallit voisivat “jättää huomioimatta sävyongelmat ja keskittyä kunkin kysymyksen olemukseen”. Tutkimus lisäsi kuitenkin tekoälymallien ja niiden monimutkaisuuden taustalla olevaa kasvavaa juonittelua.
Tämä on erityisen totta, koska tutkimuksessa havaittiin, että ChatGPT-vastaukset vaihtelevat kehotteiden pienistä yksityiskohdista, vaikka niille annettaisiin oletettavasti yksinkertainen rakenne, kuten monivalintatesti, sanoi yksi tutkijoista, Penn State Information Systems -professori Akhil Kumar, jolla on tutkinnot sähkö- ja tietokonetekniikasta.