TL;DR: Työnhakijat haastavat Eightfold-nimisen tekoälyrekrytointityökalun oikeuteen, koska se väittää laativan salaisia raportteja, jotka auttavat työnantajia seulomaan ehdokkaita. Miksi tämä on laitonta? Oikeusjuttu väittää samasta syystä, että luottoluokituslaitosten on kerrottava, miksi he muuttivat pistemäärääsi. Jos tuomioistuimet uskovat tähän logiikkaan, se voi alkaa muokata tekoälyn hankinnan mustan laatikon maailmaa.
Mitä tapahtui: Kuten monet ihmiset, jotka ovat pelanneet työnhakunumeropeliä viime aikoina, työnhakijat olivat kyllästyneet hakemusten romahtamiseen. He nostivat ryhmäkanteen Eightfoldia vastaan, joka käyttää suuria yrityksiä, kuten Microsoftia ja PayPalia, tutkiakseen mahdollisia työntekijöitä. Oikeusjuttu väittää, että Eightfold rikkoi Fair Credit Reporting Act -lakia ja vastaavaa Kalifornian kuluttajansuojalakia, koska se ei antanut hakijoiden tarkastella itseään koskevia tietoja ja korjata tietoja tarvittaessa.
“Eightfoldin teknologia piilee työhakemusten taustalla”, oikeusjuttu väittää, “keräämällä henkilötietoja, kuten sosiaalisen median profiileja, sijaintitietoja, internet- ja laitetoimintaa, evästeitä ja muun tyyppistä seurantaa.”
Kahdeksanosainen kiistää tämän: Työkalu “toimii ehdokkaiden tarkoituksella jakamilla tai asiakkaidemme toimittamilla tiedoilla. Emme kaavi sosiaalista mediaa ja vastaavia”, tiedottaja Kurt Foeller kertoi meille. “Eightfold uskoo, että syytökset ovat perusteettomia.”
Kiistatonta on se, että Eightfold käyttää tekoälyä tuottamaan pisteet nollan ja viiden välillä ja luokittelevat, kuinka sopiva ehdokas on tiettyyn tehtävään.
Miksi sillä on merkitystä: Yritykset käyttävät nyt lukuisia tekoälytyökaluja kulissien takana ehdokkaiden etsimiseen ja arvioimiseen. Ehdokkaat ovat myös pelissä ja käyttävät omia tekoälytyökalujaan työpaikkojen etsimiseen ja sovellusten luomiseen. Se on AI kauttaaltaan.
Joissakin osavaltioissa (ja New York Cityssä) on näitä työkaluja sääteleviä lakeja, jotka keskittyvät suurelta osin niiden mahdollisiin ennakkoluuloihin ja syrjintään. Mutta tekoälyn päätöksenteko tapahtuu edelleen suurelta osin ilman työnhakijoiden tietämystä.
Washingtonin yliopiston oikeustieteellisen korkeakoulun työoikeuden professorin Pauline Kimin mukaan tämä ei ole ensimmäinen kerta, kun Fair Credit Reporting Actia on käytetty haastamaan big datan vuokrausjärjestelmiä, mutta on uutta, että yksi näistä tapauksista keskittyy tekoälyyn.
Mitä tämä tarkoittaa sinulle: Jos oikeusjuttu onnistuu (mikä voi kestää vuosia), tekoälyn rekrytointityökalut voivat olla suorempia keräämiensä tietojen suhteen ja työskennellä kovemmin varmistaakseen tarkkuuden, Kim sanoi. Mutta 55 vuotta vanha laki, johon oikeusjuttu perustuu, ei myöskään välttämättä kata täysin nykyaikaista käyttöä.
Todellinen merkitys Kimin mukaan on, että näihin työkaluihin turvautuvien yritysten tulisi olla avoimempia niiden käytössä. “Koska laki kirjoitettiin kuitenkin aikaisemmin, vaikka tuomioistuimet paneisivat sen täytäntöön, se tarjoaa vain rajoitettua läpinäkyvyyttä, joka ei todennäköisesti riitä varmistamaan näiden järjestelmien oikeudenmukaisuutta.” -PAKETTI
Tämän raportin julkaisi alun perin Tech Brew.