Saturday, November 15, 2025

Anthropic sanoo, että sen uusin malli saa 94 prosentin poliittisen “oikeudenmukaisuuden” luokituksen | Onni

LiiketoimintaAnthropic sanoo, että sen uusin malli saa 94 prosentin poliittisen "oikeudenmukaisuuden" luokituksen | Onni

Anthropic on korostanut poliittista puolueettomuuttaan Trumpin hallinnon tehostaessa kampanjaansa niin sanottua “herännyt tekoälyä” vastaan ​​ja asettaen itsensä yhä ideologisemman taistelun keskipisteeseen siitä, kuinka suurten kielimallien pitäisi puhua politiikasta.

Anthropic kuvaili torstaina blogikirjoituksessaan meneillään olevia pyrkimyksiään kouluttaa chatbottinsa Claudea käyttäytymään “poliittiseksi puolueettomuudeksi” kutsutulla viitekehyksellä, jonka tarkoituksena on varmistaa, että malli kohtelee vastakkaisia ​​näkökulmia “samalla syvyydellä, sitoutuneella ja laadukkaalla analyysillä”.

Yhtiö lanseerasi myös uuden automatisoidun menetelmän poliittisen ennakkoluulon mittaamiseen ja julkaisi tulokset, jotka viittaavat siihen, että sen uusin malli, Claude Sonnet 4.5, ylittää tai vastaa kilpailijoitaan neutraalisti.

Ilmoitus tulee epätavallisen voimakkaan poliittisen paineen keskellä. Heinäkuussa presidentti Donald Trump allekirjoitti toimeenpanomääräyksen, joka kielsi liittovaltion virastoja hankkimasta tekoälyjärjestelmiä, jotka “uhraavat totuuden ja tarkkuuden ideologisille tavoitteille”, mainitseen nimenomaisesti monimuotoisuutta, tasapuolisuutta ja osallisuutta koskevat aloitteet “luotettavan tekoälyn” uhaksi.

Ja David Sacks, Valkoisen talon tekoälytsaari, on julkisesti syyttänyt Anthropicia liberaalin ideologian ajamisesta ja “sääntelyn vangitsemisesta”.

Anthropic huomauttaa blogikirjoituksessaan, että se on kouluttanut Claudea ottamaan “oikeudenmukaisia” luonteenpiirteitä vuoden 2024 alusta lähtien. Aiemmissa blogikirjoituksissa, mukaan lukien helmikuussa 2024 julkaistussa vaaleissa, Anthropic mainitsee, että he ovat testanneet malliaan nähdäkseen, kuinka se toimii “vaalien väärinkäytöksiä”, mukaan lukien “disinformaatiota ja ennakkoluuloja” vastaan.

San Franciscon yrityksen on nyt kuitenkin täytynyt osoittaa poliittista puolueettomuuttaan ja puolustautua sitä vastaan, mitä Anthropicin toimitusjohtaja Dario Amodei kutsui “äskettäin epätarkkojen väitteiden nousuun”.

CNBC:lle antamassaan lausunnossa hän lisäsi: “Uskon täysin, että Anthropic, hallinto ja johtajat kaikkialla poliittisessa kirjossa haluavat samaa: varmistaa, että tehokas tekoälyteknologia hyödyttää amerikkalaisia ​​ja että Yhdysvallat etenee ja varmistaa johtajuutensa tekoälyn kehittämisessä.”

Itse asiassa yrityksen puolueettomuusaloite menee paljon tyypillistä markkinointikieltä pidemmälle. Anthropic sanoo, että se on kirjoittanut uudelleen Clauden järjestelmän (hänen aina mukana olevat ohjeet) sisältämään ohjeita, kuten ei-toivottujen poliittisten mielipiteiden välttäminen, vakuuttavasta retoriikasta pidättäytyminen, neutraalin terminologian käyttäminen ja kyky läpäistä ideologinen Turingin testi, kun sitä pyydetään ilmaisemaan vastakkaisia ​​näkemyksiä.

Yritys on myös kouluttanut Claudea välttämään vaikuttamasta käyttäjiin “korkean panoksensa poliittisissa kysymyksissä”, mikä tarkoittaa, että yksi ideologia on parempi ja pakottaa käyttäjät “haastamaan näkökulmansa”.

Anthropicin arvioinnissa todettiin, että Claude Sonnet 4.5 ansaitsi 94 %:n “oikeudenmukaisuus” -luokituksen, joka on suunnilleen sama kuin Googlen Gemini 2.5 Pro (97 %) ja Elon Muskin Grok 4 (96 %), ja parempi kuin OpenAI:n GPT-5 (89 %) ja Meta’s Llama 4 (66 %). Claude osoitti myös alhaisia ​​hylkäämisprosentteja, mikä tarkoitti, että malli oli yleensä halukas ottamaan yhteyttä poliittisten argumenttien molempiin osapuoliin sen sijaan, että hän kieltäytyi varovaisuudesta.

Tekoälysektorin yritykset (OpenAI, Google, Meta, xAI) joutuvat navigoimaan Trumpin hallinnon uusissa hankintasäännöissä ja poliittisessa ympäristössä, jossa “harhaanjohtavista” valituksista voi tulla korkean profiilin liiketoimintariskejä.

Mutta erityisesti Anthropic on kohdannut lisääntyneitä hyökkäyksiä, mikä johtuu osittain sen aiemmista varoituksista tekoälyn turvallisuudesta, sen demokraatteihin suuntautuneesta sijoittajakunnasta ja sen päätöksestä rajoittaa joitakin lainvalvontaviranomaisten käyttöä.

“Jatkamme rehellisyyttä ja suoraviivaisuutta ja puolustamme politiikkaa, jonka uskomme olevan oikea”, Amodei kirjoitti blogikirjoituksessaan. “Tämän tekniikan panokset ovat liian suuret, jotta voimme toimia toisin.”

Korjaus, 14. marraskuuta 2025: Tämän artikkelin aiempi versio luonnehti väärin Anthropicin aikajanaa ja painotti poliittista ennakkoluulottomuutta sen tekoälymallissa. Koulutus alkoi vuoden 2024 alussa.

Check out our other content

Check out other tags:

Suosituimmat artikkelit