Friday, February 20, 2026

“Tunnen oloni erittäin epämukavaksi”: Anthropicin toimitusjohtaja varoittaa, että ryhmän tekoälyjohtajia, hänen mukaansa, ei pitäisi olla vastuussa teknologian tulevaisuudesta | Onni

Liiketoiminta"Tunnen oloni erittäin epämukavaksi": Anthropicin toimitusjohtaja varoittaa, että ryhmän tekoälyjohtajia, hänen mukaansa, ei pitäisi olla vastuussa teknologian tulevaisuudesta | Onni

Anthropic toimitusjohtaja Dario Amodei ei usko, että hänen pitäisi olla se, joka tekee päätöksiä tekoälyä ympäröivistä esteistä.

“Luulen, että olen erittäin epämiellyttävä muutaman yrityksen, muutaman ihmisen tekemästä näistä päätöksistä”, Amodei sanoi. “Ja tämä on yksi syy, miksi olen aina kannattanut vastuullista ja harkittua teknologian sääntelyä.”

“Kuka valitsi sinut ja Sam Altmanin?” -Cooper kysyi.

“Ei kukaan. Rehellisesti, ei kukaan”, Amodei vastasi.

Anthropic on omaksunut filosofian olla avoin tekoälyn rajoituksista (ja vaaroista) sen kehittyessä, hän lisäsi. Ennen haastattelun julkaisemista yhtiö sanoi, että se oli estänyt “ensimmäisen dokumentoidun tapauksen laajamittainen tekoälyn kyberhyökkäyksestä, joka toteutettiin ilman merkittävää ihmisen väliintuloa”.

Anthropic kertoi viime viikolla lahjoittaneensa 20 miljoonaa dollaria Public First Actionille, tekoälyn turvallisuuteen ja sääntelyyn keskittyneelle super-PAC:lle, ja vastusti suoraan kilpailevien OpenAI-sijoittajien tukemia super-PAC:ita.

“Tekoälyturvallisuus on edelleen korkeimman tason painopiste”, Amodei kertoi Fortunelle tammikuun kansitarinassa. “Yritykset arvostavat luottamusta”, hän sanoo.

Ei ole olemassa liittovaltion säädöksiä, jotka rajoittaisivat tekoälyä tai ympäröivät tekniikan turvallisuutta. Vaikka kaikki 50 osavaltiota ovat ottaneet käyttöön tekoälyyn liittyvää lainsäädäntöä tänä vuonna ja 38 osavaltiota on hyväksynyt tai ottanut käyttöön avoimuus- ja turvallisuustoimenpiteitä, teknologia-alan asiantuntijat ovat kehottaneet tekoälyyrityksiä puuttumaan kyberturvallisuuteen kiireellisesti.

Viime vuoden alussa kyberturvallisuusasiantuntija ja Mandiantin toimitusjohtaja Kevin Mandiat varoitti tekoälyagentin ensimmäisestä kyberturvallisuushyökkäyksestä seuraavien 12–18 kuukauden aikana, mikä tarkoittaa, että Anthropic ilmoitti estyneestä hyökkäyksestä kuukausia Mandian ennakoitua aikajanaa edellä.

Amodei on hahmotellut rajoittamattomaan tekoälyyn liittyvät lyhyen, keskipitkän ja pitkän aikavälin riskit: Teknologia tuo ensin harhaan ja väärää tietoa, kuten nytkin. Se tuottaa sitten haitallista tietoa käyttämällä parannettua tiede- ja insinööritietämystä, ennen kuin lopulta muodostaa eksistentiaalisen uhan poistamalla inhimillisen tahon, mahdollisesti tulossa liian itsenäiseksi ja sulkemalla ihmiset pois järjestelmistä.

Huolet heijastelevat “AI:n kummisetä” Geoffrey Hintonin huolenaiheita, joka varoitti, että tekoäly pystyy oveltamaan ja hallitsemaan ihmisiä ehkä seuraavan vuosikymmenen aikana.

Tekoälyn laajemman valvonnan ja turvatoimien tarve oli Anthropicin perustamisen ytimessä vuonna 2021. Amodei toimi aiemmin Sam Altmanin OpenAI:n tutkimusjohtajana. Hän jätti yrityksen mielipide-erojen vuoksi tekoälyn turvallisuuskysymyksistä. (Toistaiseksi Amodein pyrkimykset kilpailla Altmanin kanssa ovat vaikuttaneet tehokkailta: Anthropic sanoi tässä kuussa, että sen arvo on nyt 380 miljardia dollaria. OpenAI:n arvo on arviolta 500 miljardia dollaria.)

“OpenAI:ssa oli ryhmä meitä, joilla GPT-2:n ja GPT-3:n luomisen jälkeen meillä oli tavallaan erittäin vahva usko kahteen asiaan”, Amodei kertoi Fortunelle vuonna 2023. “Yksi oli ajatus, että jos lisäät laskelmia näihin malleihin, ne paranevat ja paranevat ja että tälle ei ole läheskään loppua… Ja toiseksi tarvittiin jotain mallia. turvallisuus.”

Anthropicin avoimuuspyrkimykset

Samalla kun Anthropic laajentaa edelleen datakeskusinvestointejaan, se on julkaissut osan ponnisteluistaan ​​tekoälyn puutteiden ja uhkien korjaamiseksi. Toukokuussa 2025 julkaisemassaan tietoturvaraportissa Anthropic kertoi, että jotkin sen Opus-mallin versiot uhkasivat kiristämisellä, kuten paljastamalla, että insinöörillä oli suhde, välttääkseen sulkemisen. Yhtiö sanoi myös, että tekoälymalli täytti vaaralliset pyynnöt, jos sille annettiin haitallisia ohjeita, kuten terrori-iskun suunnittelu, jonka se sanoi jo korjaaneensa.

Viime marraskuussa yritys kertoi blogikirjoituksessaan, että sen Claude-chatbot ansaitsi poliittisen puolueettomuusluokituksen 94 prosenttia, mikä ohitti tai vastaa kilpailijoidensa puolueettomuudessa.

Anthropicin omien tutkimusponnistelujen lisäksi teknologian korruption torjumiseksi Amodei on vaatinut suurempia lainsäädäntötoimia tekoälyriskien käsittelemiseksi. Kesäkuussa 2025 New York Times -lehdessä hän kritisoi senaatin päätöstä sisällyttää presidentti Donald Trumpin lakiin säännös, joka määrää 10 vuoden moratorion tekoälyä sääteleville osavaltioille.

“Tekoäly liikkuu liian nopeasti”, Amodei sanoi. “Luulen, että nämä järjestelmät voivat muuttaa maailmaa perusteellisesti kahdessa vuodessa; 10 vuodessa kaikki vedot ovat poissa.”

Anthropon kritiikkiä

Anthropicin käytäntö tuoda esiin omat virheensä ja sen pyrkimykset korjata ne on herättänyt kritiikkiä. Vastauksena Anthropicin hälytykseen tekoälyllä toimivasta kyberturvallisuushyökkäyksestä, Metan silloinen johtava tekoälytutkija Yann LeCun sanoi, että varoitus oli tapa manipuloida lainsäätäjiä rajoittamaan avoimen lähdekoodin mallien käyttöä.

“Ihmiset, jotka haluavat saada säädösten vangittua, johtavat sinua harhaan”, LeCun sanoi X-viestissä vastauksena Connecticutin senaattorin Chris Murphyn viestiin, jossa hän ilmaisi huolensa hyökkäyksestä. “He pelottelevat kaikkia kyseenalaisilla tutkimuksilla, jotta avoimen lähdekoodin mallit säännellään pois olemassaolosta.”

Toiset ovat sanoneet, että Anthropicin strategia on “turvateatteri”, joka merkitsee hyvää brändäystä, mutta ei lupaa toteuttaa suojatoimia tekniikassa.

Jopa jotkut antrooppiset työntekijät näyttävät epäilevän teknologiayrityksen kykyä säännellä itseään. Viime viikon alussa Anthropic AI -tietoturvatutkija Mrinank Sharma ilmoitti eronneensa yrityksestä ja sanoi: “Maailma on vaarassa.”

“Koko täälläoloaikani olen toistuvasti nähnyt, kuinka vaikeaa on antaa arvojemme ohjata toimintaamme”, Sharma kirjoitti erokirjeessään. “Olen nähnyt tämän itsessäni, organisaatiossa, jossa kohtaamme jatkuvasti paineita jättää tärkeimmät syrjään, ja myös koko yhteiskunnassa.”

Anthropic ei heti vastannut Fortunen kommenttipyyntöön.

Amodei kielsi Cooperille, että Anthropic harjoittaisi “turvateatteria”, mutta myönsi viime viikolla Dwarkesh Podcastin jaksossa, että yrityksellä on joskus vaikeuksia tasapainottaa turvallisuutta ja voittoja.

“Olemme uskomattoman liiketoiminnan paineen alla ja teemme siitä vieläkin vaikeampaa itsellemme, koska meillä on kaikki nämä turvallisuusasiat, joita teemme ja uskon, että teemme enemmän kuin muut yritykset”, hän sanoi.

Versio tästä tarinasta ilmestyi Fortune.com-sivustolle 17. marraskuuta 2025.

Lisää tekoälyn sääntelystä:

Check out our other content

Check out other tags:

Suosituimmat artikkelit