Anthropic on syyttänyt kolmea merkittävää kiinalaista tekoälyyritystä Claude-chatbotin käyttämisestä massiivisessa mittakaavassa kilpailevien mallien salaa kouluttamiseen, mikä on odottamaton kehitys vuosia kestäneessä maailmanlaajuisessa keskustelussa siitä, missä petokset päättyvät ja alan standardikäytäntö alkaa.
San Franciscossa toimiva Anthropic väitti maanantaina blogikirjoituksessaan, että kiinalaiset DeepSeek-, Moonshot AI- ja MiniMax-laboratoriot rikkoivat yrityslakia olemalla vuorovaikutuksessa Clauden kanssa, sen markkinoita muokkaavan tärinän koodaustyökalun kanssa. “Olemme tunnistaneet kolmen tekoälylaboratorion (DeepSeek, Moonshot ja MiniMax) teollisen mittakaavan kampanjoita, joiden tarkoituksena on saada laittomasti Clauden kykyjä parantaa omia mallejaan”, yhtiö sanoi. “Nämä laboratoriot tekivät yli 16 miljoonaa kauppaa Clauden kanssa noin 24 000 vilpillisen tilin kautta, mikä rikkoo palveluehtojamme ja alueellisia käyttörajoituksiamme.”
Anthropicin mukaan kiinalaiset yritykset luottivat tekniikkaan, joka tunnetaan nimellä “tislaus”, jossa yksi malli opetetaan toisen, usein tehokkaamman järjestelmän tuloksilla. Kampanjoiden kerrotaan keskittyneen alueisiin, jotka Anthropic näkee Clauden tärkeimpinä erottavina tekijöinä, mukaan lukien monimutkainen päättely, koodausapu ja työkalujen käyttö.
Anthropic väittää, että vaikka tislaus on “laillinen ja laajalti käytetty koulutusmenetelmä”, kiinalaiset yritykset ovat saattaneet käyttää sitä tällä tavalla “laittomiin tarkoituksiin”. Rönsyilevien väärennettyjen tilien verkostojen käyttäminen kilpailijan patentoidun mallin jäljittelemiseen rikkoo heidän palveluehtojaan ja heikentää Yhdysvaltojen vientivalvontaa, jonka tarkoituksena on rajoittaa Kiinan pääsyä huippuluokan tekoälyyn, Anthropic sanoi ja kehotti “nopeaa, koordinoitua toimintaa alan toimijoiden, poliittisten päättäjien ja maailmanlaajuisen tekoälyyhteisön kesken”.
Miten kiinalaisia yrityksiä syytetään sen tekemisestä
Yhtiö väittää, että kolme laboratoriota kiertävät geoaidat ja kaupan rajoitukset, jotka rajoittavat Clauden kaupallista saatavuutta Kiinassa reitittämällä liikennettä välityspalvelinpalvelujen kautta, jotka myyvät pääsyn johtaviin länsimaisiin tekoälymalleihin. Yksi tällainen “hydra-klusteri”, Anthropic sanoi, käytti kymmeniä tuhansia tilejä samanaikaisesti jakaakseen pyyntöjä eri API-avainten ja pilvipalveluntarjoajien välillä.
Kun nämä tilit olivat käytössä, laboratorioiden väitetään ajoittaneen pitkiä, korkean tason keskusteluja, joiden tarkoituksena oli poimia yksityiskohtaisia, vaiheittaisia vastauksia, jotka voitaisiin palauttaa omiin järjestelmiinsä koulutustietoina. Tuloksena Anthropic kertoo, että se oli rekisteröimätön prosessi, joka teki Claudesta vastahakoisen mestarin Kiinan yhä kilpailevassa tekoälysektorissa kehitettäville malleille.
Anthropic ei ole vielä ilmoittanut konkreettisista oikeudenkäynneistä näitä kolmea yritystä vastaan, mutta on todennut, että se on katkaissut tunnetut yhteyspisteet ja kehottaa Washingtonia tiukentamaan kehittyneiden sirujen ja tekoälypalvelujen vientivalvontaa estääkseen vastaavanlaiset toimet tulevaisuudessa.
“Kuinka pöydät kääntyvät”
Hyökkäysten takana on laajempi kamppailu siitä, kuka asettaa säännöt ihmistyön remiksoimiseen perustuvalle teollisuudelle. Yhdysvaltalaiset yritykset, kuten Anthropic ja OpenAI, ovat yhä useammin vaatineet aggressiivisia toimia ulkomaisia kilpailijoita vastaan, joita he syyttävät patentoitujen järjestelmien kopioimisesta, vaikka ne puolustavatkin omaa kasvavaa tiedonkeruuaan reilun käytön lipun alla.
Kiinalaiset laboratoriot, joista monet julkaisevat enemmän avoimen lähdekoodin malleja, kilpailevat umpeen suorituskyvyn eron länsimaisten kilpailijoidensa kanssa käyttämällä mitä tahansa laillista etua, jonka he löytävät. Vaikka Washington keskustelee jo tiukemmista rajoituksista tekoälysirujen ja pilvipalvelujen viennille Kiinaan, Anthropicin väitteet ruokkivat todennäköisesti uusia turvallisuusesteitä ja antavat kriitikoille uuden mahdollisuuden huomata nykyaikaisen tekoälyn ytimessä oleva epämukava symmetria.
Tässä tarinassa Fortune-toimittajat käyttivät generatiivista tekoälyä tutkimustyökaluna. Toimittaja varmisti tietojen oikeellisuuden ennen niiden julkaisemista.