Yritykset kaikilla toimialoilla kannustavat työntekijöitään käyttämään tekoälytyökaluja työssään. Samaan aikaan työntekijäsi ovat usein erittäin innokkaita saamaan kaiken irti generatiivisista AI-chatboteista, kuten ChatGPT. Toistaiseksi kaikki ovat samalla sivulla, eikö niin?
On vain yksi ongelma: kuinka yritykset suojaavat arkaluontoisia yritystietoja joutumasta imeytymään juuri niihin työkaluihin, joiden oletetaan lisäävän tuottavuutta ja sijoitetun pääoman tuottoprosenttia? Loppujen lopuksi on erittäin houkuttelevaa ladata taloudellisia tietoja, asiakastietoja, omaa koodia tai sisäisiä asiakirjoja suosikkichatbot- tai AI-koodaustyökaluun saadaksesi haluamasi nopeat tulokset (tai jos pomosi tai kollegasi saattaa vaatia). Itse asiassa tietoturvayhtiö Varonisin uusi tutkimus havaitsi, että varjo-AI (sanktioimattomat generatiiviset tekoälysovellukset) muodostaa merkittävän uhan tietoturvalle, sillä työkalut voivat ohittaa yrityksen hallinnon ja IT-valvonnan, mikä johtaa mahdollisiin tietomurtoihin. Tutkimuksessa todettiin, että lähes kaikissa yrityksissä on työntekijöitä, jotka käyttävät luvattomia sovelluksia, ja lähes puolella tekoälysovelluksia käyttäviä työntekijöitä pidetään korkeana riskinä.
Tasapainon löytäminen tekoälyn käytön rohkaisemisen ja turvaesteiden rakentamisen välillä
“Meillä ei ole teknologiaongelma, vaan käyttäjien haaste”, sanoi James Robinson, tietoturvajohtaja Netskopesta. Hän selitti, että tavoitteena on varmistaa, että työntekijät käyttävät generatiivisia tekoälytyökaluja turvallisesti ilman, että he ottavat käyttöön hyväksyttyjä teknologioita.
“Meidän on ymmärrettävä, mitä yritys yrittää saavuttaa”, hän lisäsi. Sen sijaan, että he vain kertoisivat työntekijöille, että he tekevät jotain väärin, turvallisuustiimien tulisi pyrkiä ymmärtämään, kuinka ihmiset käyttävät työkaluja, varmistaakseen, että käytännöt ovat asianmukaisia tai onko niitä mukautettava, jotta työntekijät voivat jakaa tietoja asianmukaisesti.
Salasanasuojaustoimittajan 1Passwordin tietoturvapäällikkö Jacob DePriest oli samaa mieltä ja sanoi, että hänen yrityksensä yrittää löytää tasapainon politiikoillaan sekä rohkaisemalla tekoälyn käyttöä että kouluttamalla, jotta asianmukaiset esteet ovat käytössä.
Joskus se tarkoittaa säätöjen tekemistä. Esimerkiksi yritys julkaisi viime vuonna politiikan tekoälyn hyväksyttävästä käytöstä osana yhtiön vuosittaista turvallisuuskoulutusta. “Kokonaisuudessaan teemana on “Käytä tekoälyä vastuullisesti; keskity hyväksyttyihin työkaluihin; ja tässä on joitain käyttökohteita, joita ei voida hyväksyä.” Mutta tapa, jolla se kirjoitettiin, sai monet työntekijät liian varovaisiksi, hän sanoi.
“Se on hyvä ongelma, mutta CISO:t eivät voi keskittyä yksinomaan turvallisuuteen”, hän sanoi. “Meidän on ymmärrettävä liiketoiminnan tavoitteet ja sitten autettava yritystä saavuttamaan sekä liiketoimintatavoitteet että tietoturvatulokset. Mielestäni tekoälyteknologia on viimeisen vuosikymmenen aikana korostanut tämän tasapainon tarvetta. Ja siksi olemme todella yrittäneet käsitellä tätä käsi kädessä turvallisuuden ja tuottavuuden välillä.”
AI-työkalujen kieltäminen väärinkäytön estämiseksi ei toimi
Mutta yritysten, jotka pitävät tiettyjen työkalujen kieltämistä ratkaisuna, tulisi ajatella uudelleen. Brooke Johnson, Ivantin henkilöstö- ja turvallisuusjohtaja, sanoi, että hänen yrityksensä havaitsi, että työssä generatiivista tekoälyä käyttävistä ihmisistä lähes kolmannes pitää tekoälyn käytön täysin piilossa johdolta. “He jakavat yritystietoja järjestelmien kanssa, joita kukaan ei ole tarkastanut, suorittavat pyyntöjä eri alustoilla, joilla on epäselvät tietokäytännöt, ja mahdollisesti paljastavat arkaluonteisia tietoja”, hän sanoi viestissä.
Vaisto kieltää tietyt työkalut on ymmärrettävää, mutta harhaan johdettu, hän sanoi. “Et halua työntekijöiden oppivan paremmin piilottamaan tekoälyn käyttöä; haluat heidän olevan läpinäkyviä, jotta heitä voidaan valvoa ja säännellä”, hän selitti. Tämä tarkoittaa, että hyväksyt sen tosiasian, että tekoälyä käytetään käytännöistä riippumatta, ja arvioit asianmukaisesti, mitkä tekoälyalustat täyttävät turvallisuusstandardisi.
“Opeta ryhmiä erityisistä riskeistä ilman epämääräisiä varoituksia”, hän sanoi. Auta heitä ymmärtämään, miksi tiettyjä turvaesteitä on olemassa, hän ehdotti, mutta korosti samalla, että se ei ole rankaisevaa. “Kyse on sen varmistamisesta, että he voivat tehdä työnsä tehokkaasti, tehokkaasti ja turvallisesti.”
Agent AI luo uusia haasteita tietoturvalle
Onko tietojen suojaaminen mielestäsi nyt vaikeaa tekoälyn aikakaudella? Tekoälyagentit nostavat ennakkoa, DePriest sanoi.
“Toimiessaan tehokkaasti nämä agentit tarvitsevat pääsyn valtuustietoihin, tunnuksiin ja henkilöllisyyksiin ja voivat toimia yksilön puolesta; ehkä heillä on oma identiteetti”, hän sanoi. “Emme esimerkiksi halua helpottaa tilannetta, jossa työntekijä saattaa luovuttaa päätöksentekovaltuudet tekoälyagentille, mikä voi vaikuttaa ihmiseen.” Organisaatiot haluavat työkaluja, jotka helpottavat nopeampaa oppimista ja syntetisoivat dataa nopeammin, mutta lopulta ihmisten on kyettävä tekemään kriittisiä päätöksiä, hän selitti.
Olipa kyseessä tulevaisuuden tekoälyagentit tai nykypäivän luovat tekoälytyökalut, oikean tasapainon löytäminen tuottavuuden lisäämisen ja turvallisen ja vastuullisen tekemisen välillä voi olla hankalaa. Mutta asiantuntijat sanovat, että kaikki yritykset kohtaavat saman haasteen, ja siihen vastaaminen on paras tapa ajaa tekoälyaaltoa. Riskit ovat todellisia, mutta koulutuksen, avoimuuden ja valvonnan oikealla yhdistelmällä yritykset voivat hyödyntää tekoälyn voimaa luovuttamatta avaimia valtakuntaansa.
Tutustu muihin tarinoihin Fortune AIQ:sta, uudesta sarjasta, joka kertoo, kuinka tekoälyvallankumouksen kärjessä olevat yritykset navigoivat tekniikan todellisessa vaikutuksessa.