Thursday, March 5, 2026

Kuka omistaa Chevronin? Institutionaaliset omistukset ja toimeenpanotoimet

Chevron Corporation (CVX) on 375 miljardin dollarin...

Bitcoin konsolidoituu Near Key Support Band – 77 000 dollaria on avain seuraavaan siirtoon

Bitcoin on vahvistumassa lähellä ratkaisevaa tukiyhtyettä, ja...

Anthropicin ja OpenAI:n välinen kiista ja heidän kiistansa Pentagonissa paljastavat syvemmän tekoälyn tietoturvaongelman | Onni

LiiketoimintaAnthropicin ja OpenAI:n välinen kiista ja heidän kiistansa Pentagonissa paljastavat syvemmän tekoälyn tietoturvaongelman | Onni

Tervetuloa Eye on AI -ohjelmaan tekoälytoimittaja Sharon Goldmanin kanssa. Tässä painoksessa: Trumpilla on tekoälyn palvelinkeskusongelma ennen väliaikaa… Älä luota tekoälyyn verojen ilmoittamisessa… Anthropicin tekoälytyökalu Claude on kriittinen Yhdysvaltain kampanjalle Iranissa katkeran kiistan keskellä.

Tekoälyn turvallisuudesta käytävä keskustelu keskittyy usein itse teknologiaan: kuinka tehokkaita malleista voi tulla tai mitä riskejä ne voivat aiheuttaa. Mutta tämän viikon konflikti, johon osallistuivat Anthropic, OpenAI ja Pentagon, viittaa syvempään ongelmaan: kuinka paljon valtaa tekoälyn tulevaisuudesta on keskittynyt pienelle määrälle yritysjohtajia ja valtion virkamiehiä, jotka päättävät näiden järjestelmien rakentamisesta, käyttöönotosta ja käytöstä.

Alan kriitikot ovat vuosien ajan varoittaneet “teollisen kaappauksen” vaarasta, tulevaisuudesta, jossa tehokkaiden tekoälyjärjestelmien kehittäminen on keskittynyt kouralliseen yrityksiä, jotka tekevät tiivistä yhteistyötä hallitusten kanssa, jolloin järjestelmien turvallisuus on riippuvainen niitä ylläpitävien ihmisten kannustimista ja kilpailusta. Esimerkiksi vuonna 2023 tutkija Yoshua Bengio sanoi, että mahdollisuus, että tekoälysektori on muutaman yrityksen hallinnassa, oli “numero kaksi ongelma” teknologian aiheuttamien eksistentiaalisten riskien takana.

Joten ei ole erityisen rauhoittavaa lukea eilen Anthropicin toimitusjohtajan Dario Amodeiin halveksunnasta OpenAI:n toimitusjohtajaa Sam Altmania kohtaan vuotaneessa muistiossa, jonka Amodei kirjoitti työntekijöille perjantaina. Amodein vihainen viesti, joka ilmeisesti lähetettiin Anthropic’s Slackin kautta kaikille sen työntekijöille, tuli sen jälkeen, kun OpenAI ilmoitti sopimuksesta tekoälyn toimittamisesta Pentagonille ja sotaministeri Pete Hegseth sanoi julistavansa Anthropicin “toimitusketjun riskiksi”, koska se ei päässyt samanlaiseen sopimukseen.

Amodei kutsui OpenAI:n viestejä “valehtelijoiksi”, “turvateatteriksi” ja “esimerkiksi siitä, keitä he todella ovat”, ja kuvaili monia Altmanin kommentteja “suoraksi valheeksi” ja “toiveajatteluksi”.

Altman on ottanut omat julkiset valokuvansa Anthropicista. Hän kutsui äskettäin yhtä yrityksen Super Bowl -kampanjoista “selvästi epärehelliseksi” ja syytti sitä “kaksoispuheesta”. Ja kilpailu on tullut näkyväksi myös symbolisemmilla tavoilla: äskettäisessä huippukokouksessa Altman ja Amodei yleistyivät kieltäytyessään pitämästä kädestä ryhmäkuvaa varten pääministeri Narendra Modin kanssa.

Koska Yhdysvaltain hallitus on ryhtynyt muutamaan askeleen tekoälyn säätelemiseksi (ja kansainväliset ponnistelut tekoälyn turvallisuuteen ovat suurelta osin pysähtyneet), maailma on luottanut tehokkaasti alan itsesääntelyyn. Sekä OpenAI että Anthropic ovat julkisesti tukeneet tätä paradigmaa ja allekirjoittaneet vapaaehtoisia turvallisuussitoumuksia. He ovat myös tehneet toisinaan yhteistyötä tehdäkseen riippumattomia tietoturvaarviointeja toistensa malleista ennen mallien julkaisua.

Mutta kun kahden vaikutusvaltaisimman tekoälylaboratorion johtajat eivät selvästikään tule toimeen keskenään ja heidän välinen kilpailu on niin kovaa, herää epämiellyttävä kysymys: Kuinka paljon turvallisuusyhteistyötä voimme realistisesti odottaa?

Kilpailupaine on jo vaikuttanut molempiin yrityksiin tekoälyn turvallisuuden suhteen. Anthropic tarkisti äskettäin Responsible Scaling Policy -politiikkaansa sanoakseen, että se ei enää yksipuolisesti pidättäytyisi kehittämästä uutta mallia yksinkertaisesti siksi, ettei se vielä tiennyt, kuinka tehdä siitä turvallinen. Ja OpenAI on tehnyt omat mukautuksensa poistamalla selkeät sotilaallisen ja sotakäytön kiellot politiikastaan ​​vuonna 2024 ja siirtäen painopisteensä turvallisuustutkimuksesta tuotekehitykseen siihen pisteeseen, että entinen superlinjausjohtaja Jan Leike (joka jätti Anthropicin vuoden 2024 puolivälissä) kirjoitti X:ssä, että OpenAI:ssa “turvallisuuskulttuuri ja -prosessit ovat ottaneet kiiltävät tuotteet taka-alalle.”

Nykyinen lähestymistapa turvallisuuteen olettaa, että yritykset ja hallitukset toimivat viime kädessä maltillisina. Mutta tekoälyn turvallisuuden tulevaisuus voi viime kädessä riippua siitä, kuinka pieni joukko voimakkaita toimijoita selviytyy kilpailun, geopolitiikan ja toisinaan Piilaakson saippuaoopperan paineista.

FORTUNE IN AI

Miksi Leopold Aschenbrennerin AI Hedge Fund lyö vetoa voimayhtiöistä ja Bitcoin-kaivostyöläisistä kilpaakseen “superälykkyydestä” – Sharon Goldman

OpenAI näkee Codex-käyttäjien määrän nousevan 1,6 miljoonaan ja asettaa koodaustyökalun yhdyskäytäväksi tekoälyagenteille yrityksille – kirjoittanut Jeremy Kahn

Korealainen startup wrtn ylittää 100 miljoonan dollarin vuotuiset toistuvat tulot hyödyntäen yksinäisyysepidemian ruokkimaa tekoälyn viihdebuumia – Nicolas Gordon

AI Uutisissa

Trumpilla on tekoälyn palvelinkeskusongelma ennen puoliväliä. CNBC ja muut raportoivat, että presidentti Trumpilla on edessään kasvava poliittinen dilemma, kun Yhdysvallat kilpailee rakentaakseen energiaintensiivisiä tekoälyn datakeskuksia ennen vuoden 2026 välivaaleja. Tekoälybuumin ruokkimiseen tarvittava infrastruktuuri herättää huolta nousevista sähkönhinnoista ja verkon rasituksesta, mikä saa äänestäjien ja paikallisten yhteisöjen kielteisiä reaktioita. Vastauksena suuret teknologiayritykset (mukaan lukien OpenAI, Microsoft, Google, Amazon, Meta ja Oracle) ovat sitoutuneet kattamaan tekoälyn palvelinkeskuksiin liittyvät energia- ja infrastruktuurikustannukset, jotta kuluttajien ei tarvitse maksaa korkeampia sähkölaskuja. Vapaaehtoinen sopimus, jota Valkoinen talo mainostaa keinona lieventää äänestäjien huolia, heijastelee laajempaa jännitystä: Päättäjät haluavat tekoälyn nopean laajentumisen taloudellisia ja geopoliittisia etuja, mutta teknologian valtavat sähköntarpeet luovat poliittisia ja ympäristöpaineita, joita on yhä vaikeampi jättää huomiotta.

Älä luota tekoälyyn verojen ilmoittamisessa. Tuloksissa, joiden ei pitäisi yllättää ketään, The New York Timesin testi totesi, että tekoäly ei vastaa Yhdysvaltain verolakia, mikä korostaa nykyisten AI-chatbottien suurta rajoitusta: ne kamppailevat edelleen tehtävien kanssa, jotka vaativat tarkkaa, monivaiheista päättelyä. Arvioidakseen tekniikan kykyä jättää liittovaltion veroilmoitus, paperi testasi neljää tekoäly-chatbotia (Googlen Gemini, OpenAI:n ChatGPT, Anthropicin Claude ja xAI:n Grok) nähdäkseen, kuinka hyvin ne menestyivät kahdeksassa kuvitteellisessa verotilanteessa. He kamppailivat kovasti ja laskivat väärin sisäisen verohallinnon hyvityksen tai velan keskimäärin yli 2 000 dollarilla. Vaikka heille toimitettiin kaikki tarvittavat materiaalit, mukaan lukien kaikki täytettävät lomakkeet, chatbotit epäonnistuivat joissakin laskelmissa. Ongelma heijastelee suurten kielimallien perustavaa laatua olevaa rajoitusta: Ne on suunniteltu ennustamaan todennäköisiä sanoja sen sijaan, että se jäljittäisi tarkasti monimutkaisia, toisiinsa liittyviä tietoja, mikä tekee niistä vahvoja kirjallisesti ja yhteenvetoina, mutta heikompia menettelyllisissä tehtävissä, kuten verojen ilmoittamisessa. Asiantuntijat sanovat, että järjestelmiä voidaan parantaa lisäpäättelytyökalujen ja varmennuskerrosten avulla, mutta toistaiseksi ne toimivat paremmin apuvälineinä kuin korvaavina, mikä on toinen muistutus siitä, että vaikka tekoäly muuttaa toimialoja koodauksesta lääketieteeseen, jotkut näennäisesti yksinkertaisemmat tehtävät ovat yllättävän vaikeita.

Claude, Anthropicin tekoälytyökalu, on kriittinen Yhdysvaltain kampanjalle Iranissa katkeran kiistan keskellä. The Washington Postin uusi raportti korostaa, kuinka nopeasti tekoäly on siirtynyt kokeilemisesta taistelukentälle. Asiakirjan mukaan Yhdysvaltain armeija käytti tekoälyä tukevaa Maven Smart System -nimistä kohdistusjärjestelmää (Palantirin rakentama ja Anthropicin Claude-malli) auttamaan kohteiden tunnistamisessa ja priorisoinnissa Yhdysvaltain viimeaikaisten Iranin operaatioiden aikana, mikä nopeutti aiemmin viikkoja kestäneen sotilaallisen suunnittelun lähes reaaliaikaiseen päätöksentekoon. Käyttöönotto tapahtuu kuitenkin keskellä Anthropicin ja Pentagonin välistä katkeraa kiistaa sen teknologian rajoituksista sodankäynnissä, mukaan lukien huolet autonomisista aseista ja massavalvonnasta. Jakso korostaa sekä huippuluokan tekoälyjärjestelmien kasvavaa strategista merkitystä että jännitettä hallituksen nopean käyttöönoton vaatimuksen ja yritysten turvallisuusrajojen asettamisen välillä.

EYE ON THE AI LUKUJA 25 miljardia dollaria

Näin paljon OpenAI tuotti vuositasolla viime kuun lopussa The Informationin raportin mukaan – 17 % kasvua vuoden lopun 21,4 miljardin dollarin vuositasosta kahden luvut tuntevan henkilön mukaan.

OpenAI tuottaa edelleen enemmän tuloja kuin sen lähin kilpailija Anthropic, vaikka ero pienenee nopeasti. Anthropicin vuotuinen liikevaihto ylitti äskettäin 19 miljardia dollaria, mikä on lähes kolminkertainen verrattuna viime vuoden lopulle ja kasvoi 36 % vain kahden viimeisen viikon aikana.

OpenAI laskee vuosittaisen tuoton kertomalla edellisten neljän viikon tuotot 12:lla. Eräs lähde sanoi, että jos yritys ekstrapoloisi tulopiikit vain viimeisellä viikolla, sen vuositaso olisi lähempänä 30 miljardia dollaria.

Anthropicin nopeaa kasvua on johtanut osittain sen koodaukseen keskittyneiden tekoälymallien vahva kysyntä, mikä on auttanut yritystä nopeasti kuromaan umpeen tuloeronsa OpenAI:n avulla. Vielä vuonna 2025 OpenAI tuotti noin kolme kertaa enemmän tuloja kuin Anthropic.

SINULLA ON KALENTERI

2.–5. maaliskuuta: Mobile World Congress, Barcelona, ​​​​Espanja.

12.–18. maaliskuuta: South by Southwest, Austin, Texas.

16.–19. maaliskuuta: Nvidia GTC, San Jose, Kalifornia.

6.-9. huhtikuuta: HumanX, San Francisco.

Check out our other content

Check out other tags:

Suosituimmat artikkelit