Tekoälyyhtiö Anthropic sanoi, ettei se voi hyväksyä Pentagonin “viimeistä ja parasta” tarjousta ratkaista kiista rajoituksista, joita yhtiöllä on siihen, miten Yhdysvaltain armeija voi käyttää tekoälymallejaan. Vain muutama tunti ennen perjantaina asetettua määräaikaa Pentagonin vaatimusten täyttämiselle tai toimiin, jotka voisivat estää Anthropicia tekemästä liiketoimintaa minkä tahansa yrityksen kanssa, joka harjoittaa liiketoimintaa myös Yhdysvaltain armeijan kanssa, kiista paheni entisestään.
Pentagonin viranomaiset ovat julkisesti kyseenalaistaneet Anthropicin toimitusjohtajan Dario Amodein luonteen. Samaan aikaan kilpailevien tekoälylaboratorioiden työntekijät ovat allekirjoittaneet avoimia kirjeitä, jotka tukevat Anthropicin asemaa. OpenAI:n toimitusjohtaja Sam Altman kertoi työntekijöille muistiossa torstaina Axiosin raportoinnin mukaan, että OpenAI asettaisi samat rajoitukset autonomisille aseille ja massavalvontalle, joita Anthropicilla on neuvoteltuaan laajentaa ChatGPT:n käyttöä, joka on tällä hetkellä armeijan saatavilla ei-arkaluonteisiin käyttötapauksiin, luokiteltumpiin verkkotunnuksiin.
Anthropon ja Pentagonin välinen taistelu uhkaa nyt muodostua teollisuuden laajuiseksi kapinaksi tekoälyyritysten teknologiatyöntekijöiden keskuudessa siitä, miten armeija käyttää rakentamiaan tekoälyjärjestelmiä. Yli 100 Googlen työntekijää lähetti torstaina kirjeen Jeff Deanille, yrityksen päätutkijalle, ja pyysi myös samanlaisia rajoituksia sille, miten Yhdysvaltain armeija käyttää yhtiön Gemini AI -malleja New York Timesin mukaan.
Torstaina Amodei julkaisi pitkän lausunnon, jossa selitettiin, miksi yhtiö uskoo, että hänen yrityksensä tekoälyteknologian käyttöä autonomisissa aseissa ja joukkovalvontaan pitäisi rajoittaa. Nämä ovat kaksi aluetta, joilla Anthropic tällä hetkellä rajoittaa armeijan malliensa käyttöä sekä sopimusehtojensa mukaisesti että suoraan Claude-malleihinsa sisäänrakennetuilla suojatoimilla. Pentagon haluaa poistaa nämä rajoitukset ja Anthropicin suostuvan siihen, että Yhdysvaltain armeija voi käyttää mallejaan “mihin tahansa lailliseen tarkoitukseen”.
Frontierin tekoälyjärjestelmät “eivät ole tarpeeksi luotettavia toimimaan täysin itsenäisissä aseissa”, ja ilman asianmukaista valvontaa niihin “ei voida luottaa kriittiseen harkintaan, jota korkeasti koulutetut ammattijoukkomme osoittavat joka päivä”, Amodei kirjoitti lausunnossaan. Valvonnassa hän väitti, että tehokas tekoäly voi nyt yhdistää yksilöllisesti vaarattomia julkisia tietoja, kuten sijaintilokeja, selaushistoriaa ja sosiaalisia assosiaatioita, kattavaksi kuvaksi minkä tahansa Yhdysvaltain kansalaisen elämästä laajassa mittakaavassa.
Yhdysvaltain apulaissotaministeri Emil Michael kutsui Amodeita “valehtelijaksi” “jumalakompleksilla” ja syytti toimitusjohtajaa “henkilökohtaisesti Yhdysvaltain armeijan hallinnasta” sosiaalisen median julkaisuissa.
Pentagon on vaatinut Anthropicia poistamaan vastustamansa sopimusrajoitukset klo 17.01 mennessä. Perjantaina tai joutuu peruuttamaan 200 miljoonan dollarin sopimuksensa Yhdysvaltain armeijan kanssa tai, äärimmäisemmässä määrin, hänet leimataan “toimitusketjuriskiksi”, mikä estäisi tehokkaasti kaikkia armeijan kanssa kauppaa tekeviä yrityksiä käyttämästä Anthropicin teknologiaa.
Tämän tyyppiset askeleet on yleensä varattu ulkomaisille vastustajille, kuten kiinalaiselle Huaweille tai venäläiselle kyberturvallisuusyhtiölle Kasperskylle.
“Sen käyttäminen kansallista yhtiötä vastaan, koska se ei ole halukas tekemään kompromisseja joistakin tämänkaltaisista periaatteista, on todella eskaloivaa ja ennennäkemätöntä”, Cambridgen eksistentiaalisen riskin tutkimuksen keskuksen toiminnanjohtaja Seán Ó hÉigeartaigh kertoi Fortunelle.
Sotaministeriö on myös uhannut vedota kylmän sodan aikaiseen puolustustuotantolakiin ja pakottaa Anthropicin toimittamaan rajoittamattoman version Claudesta sillä perusteella, että hallitus pitää sitä välttämättömänä kansallisen turvallisuuden kannalta. Jos Pentagon menee tälle tielle, se käyttää vain hätävaltuuksia ratkaistakseen rauhanaikaisen sopimuskiistan. Tälle on olemassa ennakkotapaus: Bidenin hallinto vetosi myös DPA:han vuonna 2023 pakottaakseen rajalla toimivat tekoälylaboratoriot luovuttamaan tietoja tekoälymalliensa turvallisuudesta. Mutta yrityksen pakottaminen tuottamaan tuotetta sen sijaan, että vain toimittaisi tietoa, on lähempänä johtavan teknologiayrityksen kansallistamista.
“Jos heidät tosiasiallisesti pakotetaan sallimaan teknologiansa käyttö tavoilla, jotka jopa he itse sanovat olevan epäluotettavia korkean riskin hengen ja kuoleman tilanteissa, kuten taistelukentällä”, Ó hÉigeartaigh sanoi, “se on erittäin vaarallinen ennakkotapaus.”
Sotaministeriö on julkisesti ilmoittanut, ettei sillä ole aikomusta harjoittaa joukkovalvontaa tai sulkea ihmisiä pois asekohdistuspäätöksistä, mutta kiista voi riippua siitä, miten kumpikin osapuoli määrittelee “autonomisen” tai “valvonnan” käytännössä. Osaston edustajat eivät heti vastanneet Fortunen kommenttipyyntöön.
Anthropicin tiedottaja kertoi Fortunelle, että yritys jatkoi “työskentelyä hyvässä uskossa” sotaosaston kanssa. Tiedottaja kuitenkin sanoi, että yössä saatu sopimusteksti ei ollut “käytännössä edistynyt” ydinkysymyksissä. He sanoivat, että uusi “kompromissiksi muotoiltu” kieli “yhdistettiin lailliseen ammattikieleen, joka mahdollistaisi näiden suojatoimien huomiotta jättämisen”. Amodei on kutsunut sotaministeriön uhkauksia “luonnollisesti ristiriitaisiksi”, koska “yksi leimaa meidät turvallisuusriskiksi ja toinen leimaa Clauden kansallisen turvallisuuden kannalta välttämättömäksi”.
Anthropic on ansainnut kehuja joistakin kulmista halukkuudestaan kestää. Harvardin lain professori Lawrence Lessig kehui yhtiön lausuntoa “kauniiksi rehellisyydeksi ja periaatteeksi” ja kutsui sitä “ajallamme uskomattoman harvinaiseksi”.
Kilpailijat OpenAI ja xAI ovat sopineet Pentagonin kanssa sopimuksista, jotka sallivat niiden mallien käytön kaikkiin laillisiin tarkoituksiin, ja xAI menee pidemmälle suostumalla järjestelmiensä käyttöön joissakin luokiteltuissa ympäristöissä. Mutta yli 330 nykyistä työntekijää kilpailevissa laboratorioissa Google DeepMind ja OpenAI julkaisivat myös avoimen kirjeen Anthropicin tukemiseksi ja kehottivat omia johtajiaan seuraamaan yrityksen esimerkkiä. “He yrittävät hajottaa jokaisen yrityksen, koska pelkäävät, että toinen antaa periksi”, kirjeessä sanottiin. “Tämä strategia toimii vain, jos kukaan meistä ei tiedä, missä muut ovat.” Allekirjoittajina oli vanhempia tutkijoita sekä molempien yritysten nimettyjä ja anonyymejä tutkijoita.
Ó hÉigeartaigh sanoi, että kiistan tulokset voivat ulottua paljon pidemmälle kuin itse Anthropic. “Jos Pentagon selviää tästä”, hän sanoi, “se luo ennakkotapauksia, jotka eivät ole hyväksi näiden yritysten riippumattomuudelle tai niiden kyvylle noudattaa eettisiä normeja.”