Thursday, February 26, 2026

Taistelussaan Hegsethin kanssa Anthropic kohtaa ehkä suurimman kriisin viiden vuoden olemassaolonsa aikana | Onni

LiiketoimintaTaistelussaan Hegsethin kanssa Anthropic kohtaa ehkä suurimman kriisin viiden vuoden olemassaolonsa aikana | Onni

Tekoälyyritys Anthropic kohtaa ehkä suurimman kriisin viiden vuoden olemassaolonsa aikana, kun se lähestyy perjantain määräaikaa poistaakseen rajoitukset siitä, miten Yhdysvaltain sotaministeriö voi käyttää teknologiaansa, tai kohdata mahdollisuus, että Pentagon ryhtyy toimiin, jotka voivat lamauttaa sen liiketoimintaa.

Yhdysvaltain sotaministeri Pete Hegseth on vaatinut Anthropicia poistamaan sopimuksissaan tällä hetkellä asettamat rajoitukset, jotka kieltävät sen tekoälymallien käytön massavalvontaan tai liittämästä tappaviin autonomisiin aseisiin, jotka voivat tehdä hyökkäyspäätöksiä ilman ihmisen väliintuloa. Sen sijaan Hegseth haluaa Anthropicin määräävän, että sen tekniikkaa voidaan käyttää “kaikkiin laillisiin tarkoituksiin”, joihin sotaministeriö haluaa pyrkiä.

Jos yritys ei noudata vaatimuksia perjantaihin mennessä, Hegseth on uhannut paitsi irtisanoa Anthropicin nykyisen 200 miljoonan dollarin sopimuksen osastonsa kanssa, myös leimaamalla yrityksen “toimitusketjuriskiksi”, mikä tarkoittaa, että mikään sotaosaston kanssa liiketoimintaa tekevä yritys ei pystyisi käyttämään Anthropicin malleja. Tämä saattaa hidastaa Anthropicin kasvua, aivan kuten tällä hetkellä 380 miljardiin dollariin arvostettu yritys on nähnyt merkittävää liiketoimintaa ja suunnittelee listaamista ensi vuonna.

Hegsethin ja Anthropicin toimitusjohtajan Dario Amodein tiistaitapaaminen Washingtonissa ei onnistunut ratkaisemaan konfliktia ja päättyi Hegsethin toistamiseen uhkavaatimuksensa.

Kiista syntyy toisinaan muiden Trumpin hallinnon virkamiesten avoimen vihamielisyyden taustalla Anthropicia kohtaan. Etenkin tekoälytsaari David Sacks on julkisesti hyökännyt yhtiötä vastaan ​​sosiaalisessa mediassa, koska se edustaa “herännyt tekoälyä” ja “fatalistista teollisuuskompleksia”. Sacks on syyttänyt yhtiötä “kehittyneeseen sääntelyn kaappausstrategiaan, joka perustuu pelon lietsomiseen”. Heidän argumenttinsa on pohjimmiltaan se, että Anthropicin johtajat varoittavat väärin tekoälyjärjestelmien äärimmäisistä riskeistä perustellakseen teknologiaa koskevia määräyksiä, joita vain Anthropic ja jotkut muut tekoälyyritykset voivat helposti noudattaa.

Anthropic toimitusjohtaja Dario Amodei kutsui näitä näkemyksiä “epätarkiksi” ja vaati, että yhtiöllä on monia yhteisiä poliittisia tavoitteita Trumpin hallinnon kanssa, mukaan lukien halu, että Yhdysvallat pysyisi tekoälyteknologian kehityksen kärjessä.

Silti Sacks ja muut hallinnossa voivat toivoa, että Hegseth noudattaa uhkauksiaan asettaa Anthropic mustalle listalle kansallisen turvallisuuden toimitusketjusta.

Muut tekoälyyritykset, kuten OpenAI ja Google, eivät ilmeisesti ole asettaneet rajoituksia sille, miten Yhdysvaltain armeija käyttää teknologiaansa.

Periaatteet versus pragmatismi

Työskentely armeijan kanssa on ollut kiistanalaista joidenkin teknologiatyöntekijöiden keskuudessa. Vuonna 2018 Google kohtasi henkilöstön kapinan sen päätöksestä auttaa Pentagonia “Project Maven” -projektissa, joka pyrkii käyttämään tekoälyä ilmavalvontakuvien analysointiin. Työntekijöiden kapina pakotti Googlen perääntymään tarjouksestaan ​​uusia sopimuksensa hankkeen parissa. Mutta kuluneiden vuosien aikana Internet-jätti on hiljaa uudistanut siteitään puolustuslaitoksen kanssa, ja joulukuussa sotaministeriö ilmoitti ottavansa käyttöön Googlen Gemini AI -malleja useisiin käyttötapauksiin.

Owen Daniels, Georgetownin yliopiston Center for Security and Emerging Technology (CSET) analyysin apulaisjohtaja, kertoi Associated Pressille, että “Anthropicin kollegat, mukaan lukien Meta, Google ja xAI, ovat olleet halukkaita noudattamaan osaston käytäntöä käyttää malleja kaikissa laillisissa sovelluksissa. Siksi yrityksen neuvotteluvoima on rajoitettu ja se uhkaa menettää AI-osaston vaikutusvallan omaksuakseen AI:n.”

Mutta periaatteet voivat olla epätavallisen voimakas motivaattori Anthropic työntekijöille. Yrityksen perusti joukko tutkijoita, jotka erosivat OpenAI:sta osittain, koska he olivat huolissaan siitä, että laboratorio salli kaupallisten paineiden kääntää sen pois alkuperäisestä tehtävästään varmistaa, että tehokas tekoäly kehitettiin ihmiskunnan hyödyksi. Ja äskettäin Anthropic otti periaatteellisen kannan olla sisällyttämättä mainontaa Claude-tuotteisiinsa ja olemaan kehittämättä chatbotteja, jotka on suunniteltu erityisesti romanttisiksi tai eroottisiksi kumppaneiksi.

Ottaen huomioon yrityksen kulttuurin, jotkut ulkopuoliset kommentaattorit ovat spekuloineet, että ainakin osa Anthropic-henkilöstöstä eroaa, jos yritys antaa periksi Hegsethin vaatimuksille ja poistaa hallituksen sopimuksiinsa tällä hetkellä sisältyvät rajoitukset.

Hegseth on myös sanonut, että Pentagonilla on toinen vaihtoehto, jos Anthropic ei vapaaehtoisesti täytä sen pyyntöä. Tämä tarkoittaisi vuoden 1950 puolustustuotantolain käyttöä pakottamaan Anthropic tarjoamaan armeijalle version Claude-mallistaan ​​ilman rajoituksia.

Tätä DPA:ta, jonka tarkoituksena oli alun perin antaa hallitukselle mahdollisuus ottaa haltuunsa siviilituotanto sodan sattuessa, käytettiin Covid-19-pandemian aikana yritysten pakottamiseksi valmistamaan suojavarusteita ja rokotteita. Sittemmin sitä on käytetty useita kertoja, pääasiassa Bidenin hallinnon toimesta, jopa selkeän kansallisen hätätilan puuttuessa. Esimerkiksi vuonna 2023 Bidenin Valkoinen talo vetosi DPA:han pakottaakseen teknologiayritykset jakamaan tietoja edistyneiden tekoälymalliensa tietoturvatestauksesta hallitukselle.

Katie Sweeten, joka palveli syyskuuhun 2025 asti oikeusministeriön yhteyshenkilönä puolustusministeriöön ja on nyt osakkaana asianajotoimistossa Scale, kertoi CNN:lle, että Hegsethin asema ei ollut järkevä poliittisesta näkökulmasta. “Emme kai halua käyttää teknologiaa, joka aiheuttaa riskin toimitusketjulle, eikö niin? Joten en tiedä, miten se ratkaistaan”, hän sanoi.

Dean Ball, joka toimi tekoälypolitiikan neuvonantajana Trumpin hallinnossa ja auttoi sen tekoälyn toimintasuunnitelman laatimisessa ja joka on nyt vanhempi tutkija Foundation for American Innovationissa, kutsui myös Pentagonin asemaa “epäjohdonmukaiseksi” viestissä.

Ball kertoi Tech Crunchille, että toimitusketjun riskimerkinnän asettaminen lähettäisi kauhean viestin kaikille yrityksille, jotka tekevät liiketoimintaa hallituksen kanssa. “Se olisi pohjimmiltaan se, että hallitus sanoisi: ‘Jos et ole kanssamme poliittisesti samaa mieltä, yritämme saada teidät pois toiminnasta'”, hän sanoi.

Jotkut oikeudelliset kommentaattorit huomauttivat, että kiistan molemmilla osapuolilla oli joitain oikeutettuja perusteluja. “Emme haluaisi Lockheed Martinin myyvän armeijalle F-35:tä ja kertovan sitten Pentagonille, mitä tehtäviä se voisi suorittaa”, sanoi Minnesotan yliopiston oikeustieteen apulaisprofessori ja Brookingsin stipendiaatti Lawfare-sivustolla julkaistussa kolumnissa.

Mutta Rozenshtein väitti myös, että kongressin, ei Pentagonin, tulisi asettaa säännöt siitä, kuinka Yhdysvaltain armeija käyttää tekoälyä. “Ehdot, jotka ohjaavat sitä, kuinka armeija käyttää vuosisadan mullistavinta teknologiaa, asetetaan puolustusministerin ja startup-toimitusjohtajan kahdenvälisillä neuvotteluilla ilman demokraattista panosta tai kestäviä rajoituksia”, hän kirjoitti.

Keskiviikon aikana Anthropic ei osoittanut merkkejä perääntymisestä asemastaan.

Clauden tulevaisuus vaakalaudalla

Ja juuri viime viikolla Anthropic osoitti jälleen, eri kontekstissa, että se on joskus halukas asettamaan pragmaattisuuden ja liiketoiminnan vaatimukset altruististen periaatteiden edelle. Yritys päivitti Responsible Scaling Policy (RSP) -käytäntönsä ja luopui aiemmasta sitoumuksesta olla koskaan kouluttamatta tekoälymallia, ellei se pystyisi varmistamaan, että sillä on riittävät turvatarkastukset. Sen sijaan uusi RSP yksinkertaisesti sitoutuu Anthropicin vastaamaan tai ylittämään kilpailijoiden turvallisuusponnistelut. Se sanoo myös, että Anthropic viivyttää mallin kehitystä, jos yritys uskoo olevansa selvä etu kilpailijoihin verrattuna ja uskoo myös, että sen harjoittama malli muodostaa merkittävän katastrofaalisen riskin. Anthropicin tutkimusjohtaja Jared Kaplan kertoi Timelle, että “yksipuolisilla sitoumuksilla” ei ole enää järkeä, jos “kilpailijat etenevät”.

Nähtäväksi jää, tekeekö Anthropic samanlaisen myönnytyksen kaupallisille paineille taistelussaan sotaosaston kanssa.

Check out our other content

Check out other tags:

Suosituimmat artikkelit