Tuesday, February 17, 2026

Kilpailijasi toimitusjohtajan tehtävästä voisi olla hallituksessasi | Onni

Toimitusjohtajien nimittäminen toimitusjohtajiksi oli aikoinaan "hätätilanteessa tapahtuva...

80-vuotias supermarketketju katoaa pysyvästi

Kun olin lapsi, perheeni teki ostoksia Star...

Mitä OpenAI:n OpenClaw-vuokraus sanoo tekoälyagenttien tulevaisuudesta | Onni

LiiketoimintaMitä OpenAI:n OpenClaw-vuokraus sanoo tekoälyagenttien tulevaisuudesta | Onni

Hei ja tervetuloa Eye on AI -ohjelmaan, jossa Sharon Goldman korvaa Jeremy Kahnin. Tässä painoksessa: Mitä OpenAI:n OpenClawin palkkaaminen todella tarkoittaa… Pentagon uhkaa antrooppisella rangaistuksella… Miksi AI-video Tom Cruisen taistelemasta Brad Pittiä pelotti Hollywoodia… Ahdistus, joka saa aikaan julmaa tekoälytyökulttuuria.

Juuri tällainen autonominen käyttäytyminen teki OpenClawista mielenkiintoisen kehittäjille ja toi heidät lähemmäksi heidän unelmaansa todellisesta JARVIS:sta, joka on aina mukana ollut Iron Man -elokuvien apulainen. Mutta se soitti nopeasti hälytyskellot turvallisuusasiantuntijoiden keskuudessa. Viime viikolla kuvailin OpenClawia tekoälyagenttien “pahaksi pojaksi”, koska jatkuva, itsenäinen ja syvästi järjestelmien välillä toimiva avustaja on myös paljon vaikeampi turvata.

Jotkut sanovat, että OpenAI:n palkkaaminen on “paras tulos”

Tämä jännitys auttaa selittämään, miksi jotkut pitävät OpenAI:n väliintuloa välttämättömänä askeleena. “Mielestäni se on luultavasti paras lopputulos kaikille”, sanoi Gavriel Cohen, ohjelmistoinsinööri, joka loi NanoClawin, jota hän kutsuu “turvalliseksi vaihtoehdoksi” OpenClawille. “Peterillä on hyvä tuotetaju, mutta projektista tuli liian suuri, liian nopea, ilman tarpeeksi huomiota arkkitehtuuriin ja tietoturvaan. OpenClaw on pohjimmiltaan epävarma ja puutteellinen. He eivät voi korjata sitä vain korjaustiedostoilla.”

Toiset näkevät muutoksen yhtä strategisena OpenAI:lle. “Se on hieno liike heiltä”, sanoi William Falcon, kehittäjäkeskeisen tekoälypilviyrityksen Lightning AI:n toimitusjohtaja, joka sanoi, että Anthropicin Claude-tuotteet, mukaan lukien Claude Code, ovat dominoineet kehittäjäsegmenttiä. Hän selitti, että OpenAI haluaa “voittaa kaikki kehittäjät, siellä on suurin osa tekoälyn kuluista”. OpenClaw, joka on monella tapaa avoimen lähdekoodin vaihtoehto Claude Codelle ja josta tuli yhdessä yössä kehittäjien rakas, antaa OpenAI:lle “päästä pois vankilasta ilmaisen kortin”, hän sanoi.

Altman puolestaan ​​on esittänyt palkkaamisen vetona siitä, mitä seuraavaksi tapahtuu. Hän sanoi, että Steinberger tuo “paljon uskomattomia ideoita” siitä, kuinka tekoälyagentit voisivat olla vuorovaikutuksessa keskenään, ja lisäsi, että “tulevaisuus on erittäin moniagentti” ja että tällaisista ominaisuuksista “tulee nopeasti tuotevalikoimamme ydin”. OpenAI on sanonut, että se aikoo pitää OpenClawin käynnissä itsenäisenä avoimen lähdekoodin projektina säätiön kautta sen sijaan, että integroisi sen omiin tuotteisiinsa. Steinberger on sanonut tämän lupauksen olevan kriittinen hänen päätöksessään valita OpenAI kilpailijoiden, kuten Anthropicin ja Metan, sijaan (Lex Fridmanin haastattelussa Steinberger sanoi, että Mark Zuckerberg jopa otti häneen yhteyttä henkilökohtaisesti WhatsAppissa).

Seuraava vaihe on hankkia kehittäjien luottamus tekoälyagenteille

Viikonlopun hypetyksen lisäksi OpenAI:n OpenClawin palkkaaminen tarjoaa ikkunan AI-agentin uran kehittymiseen. Kun malleista tulee enemmän vaihdettavia, kilpailu siirtyy vähemmän näkyvään infrastruktuuriin, joka määrittää, voivatko agentit toimia luotettavasti, turvallisesti ja mittakaavassa. Ottamalla käyttöön viraalisen mutta kiistanalaisen autonomisen agentin luojan ja lupaamalla pitää projektin avoimen lähdekoodin, OpenAI viestittää, että tekoälyn seuraavaa vaihetta eivät määritä pelkästään älykkäämmät mallit, vaan ansaitsemalla kehittäjien luottamuksen, joiden tehtävänä on muuttaa kokeelliset agentit luotettaviksi järjestelmiksi.

Tämä voi johtaa uusien tuotteiden aaltoon, sanoi Yohei Nakajima, Untapped Capitalin kumppani, jonka 2023 avoimen lähdekoodin kokeilu nimeltä BabyAGI auttoi osoittamaan, kuinka LLM:t voivat luoda ja suorittaa tehtäviä itsenäisesti, mikä auttoi käynnistämään modernin tekoälyagenttiliikkeen. Sekä BabyAGI että OpenClaw inspiroivat hänen mukaansa kehittäjiä näkemään, mitä muuta he voisivat rakentaa uusimmalla tekniikalla. “Pian BabyAGI:n jälkeen näimme agenttiyritysten ensimmäisen aallon lanseerauksen: gpt-engineer (tuli Lovable), Crew AI, Manus, Genspark”, hän sanoi. “Toivon, että näemme samanlaisia ​​uusia inspiroituja tuotteita tämän äskettäisen aallon jälkeen.”

FORTUNE IN AI

Tekoälyinvestoinnit lisääntyvät Intiassa, kun teknologiajohtajat kokoontuvat Delhin huippukokoukseen – Beatrice Nolan

Big Tech lähestyy “Red Flag” -hetkeä: AI CapEx niin suuri, hyperscalerit voivat olla kassavirtaa negatiivisia, Evercore varoittaa – kirjoittanut Jim Edwards

Anthropicin toimitusjohtaja Dario Amodei selittää varovaisuuttaan kulutuksen suhteen ja varoittaa, että jos tekoälyn kasvuennusteet ovat heikentyneet vain vuodella, “mennät konkurssiin” – kirjoittanut Jason Ma

AI Uutisissa

Pentagon uhkaa antrooppisella rangaistuksella. Axiosin mukaan Pentagon uhkaa nimetä Anthropicin “toimitusketjun riskiksi”, joka on harvinainen ja rankaiseva toimenpide, joka pakottaisi kaikki Yhdysvaltain armeijan kanssa liiketoimintaa harjoittavat yritykset katkaisemaan siteet tekoälyn startupiin. Puolustusviranomaiset sanovat olevansa turhautuneita Anthropicin kieltäytymisestä täysin höllentää suojatoimia sen Claude-mallin käytön suhteen (erityisesti rajoitukset, joilla estetään amerikkalaisten joukkovalvonta tai täysin autonomisten aseiden kehittäminen), ja väittävät, että armeijan pitäisi voida käyttää tekoälyä “kaikkiin laillisiin tarkoituksiin”. Tilanne on erityisen kireä, koska Claude on tällä hetkellä ainoa tekoälymalli, joka on hyväksytty käytettäväksi Pentagonin turvaluokiteltuissa järjestelmissä, ja se on syvästi upotettu sotilaallisiin työnkulkuihin, mikä tarkoittaa, että äkillinen katkos olisi kallis ja häiritsevä. Kiista korostaa kasvavaa jännitystä tekoälylaboratorioiden välillä, jotka haluavat asettaa eettisiä rajoja, ja yhdysvaltalaisen sotilaslaitoksen välillä, joka on yhä halukkaampi pelaamaan kovaa palloa etsiessään laajempaa hallintaa tehokkaista tekoälytyökaluista.

Ahdistus, joka ohjaa julmaa tekoälytyökulttuuria. Jos olet koskaan ollut huolissasi työn ja yksityiselämän tasapainosta, uskon, että tunnet olosi paremmaksi tämän artikkelin lukemisen jälkeen. The Guardianin mukaan San Franciscon kukoistavassa tekoälytaloudessa teknologiasektorin pitkäaikaiset edut ja joustava kulttuuri ovat korvautumassa anteeksiantamattomilla, vaativilla odotuksilla, kun startupit pakottavat työntekijät työskentelemään pitkiä päiviä, vähän vapaa-aikaa ja äärimmäisiä tuottavuuspaineita pysyäkseen mukana nopean kehityksen ja kireän kilpailun vuoksi. Työntekijät kuvailevat 12-tuntisia päiviä, kuuden päivän viikkoja ja ympäristöjä, joissa viikonloppujen tai sosiaalisen elämän väliin jättäminen tuntuu olevan asiallisena pysymisen hinta, vaikka ahdistus kasvaakin työturvallisuudesta ja tekoälyn vaikutuksesta tuleviin rooleihin. Muutos heijastaa laajempaa muutosta tekoälytyön arvostamisessa, muutosta, joka muokkaa työpaikan normeja ja voi ennakoida samanlaisia ​​paineita muilla aloilla automaation ja innovaatioiden kiihtyessä. Minun täytyy ehdottomasti nähdä, miltä tämä näyttää maassa seuraavan kerran, kun olen Bayssä.

KATSO AI-TUTKIMUSTA

Maailman suurin ja pisimpään jatkunut hakkerikonferenssi DEF CON julkaisi viimeisimmän Hackers’ Almanack -vuosiraportin, joka tiivistää viimeisimmässä painoksessa elokuussa 2025 julkaistusta tutkimuksesta. Raportissa keskityttiin siihen, kuinka tutkijat osoittivat, että tekoälyjärjestelmät eivät enää vain auta ihmisiä hakkeroimaan nopeammin, vaan voivat joskus jopa ylittää ne. Useissa kyberturvallisuuskilpailuissa tekoälyagentteja käyttävät tiimit voittivat täysin ihmisryhmiä, ja yhdessä tapauksessa tekoälyn annettiin juosta yksin ja murtautua kohdejärjestelmään ilman ihmisen lisätoimia. Tutkijat esittelivät myös tekoälytyökaluja, jotka voivat löytää ohjelmistovirheitä mittakaavassa, jäljitellä ihmisääniä ja manipuloida koneoppimisjärjestelmiä, korostaen, kuinka nopeasti tekoälyn loukkaava käyttö etenee.

Ongelmana on tutkijoiden mukaan se, että useimmat päättäjät eivät näe näitä ominaisuuksia, mikä lisää vääriin tietoihin perustuvien tekoälysääntöjen riskiä. Heidän ehdotuksensa: salli tekoälyjärjestelmien kilpailla avoimesti julkisissa hakkerointikilpailuissa, tallentaa tulokset avoimeen, jaettuun tietokantaan ja käyttää tätä todellista näyttöä auttamaan hallituksia kehittämään älykkäämpiä, realistisempia tekoälyn turvallisuuspolitiikkaa.

SINULLA ON KALENTERI

16.–20. helmikuuta: Intian AI Impact Summit 2026, Delhi.

24.-26. helmikuuta: International Association for Safe and Ethical AI (IASEAI), UNESCO, Pariisi, Ranska.

2.–5. maaliskuuta: Mobile World Congress, Barcelona, ​​​​Espanja.

12.–18. maaliskuuta: South by Southwest, Austin, Texas.

16.–19. maaliskuuta: Nvidia GTC, San Jose, Kalifornia.

6.-9. huhtikuuta: HumanX, San Francisco

RUOKAA AIVOILLE

Luottamuksen dilemma, kun tekoäly astuu koehuoneeseen. Minua kiehtoi tämä Scientific Americanin uusi artikkeli, jossa todetaan, että kun tekoäly soluttautuu yhä syvemmälle kliiniseen hoitoon, sairaanhoitajat joutuvat uuden luottamuspulman etulinjaan: Pitäisikö heidän noudattaa algoritmien luomia määräyksiä, kun todellisen maailman tuomiot sanovat toisin? Esimerkiksi sepsishälytys sai päivystysryhmän antamaan nesteitä potilaalle, jolla oli munuaisten vajaatoiminta, kunnes sairaanhoitaja kieltäytyi ja lääkäri ohitti tekoälyn. Yhdysvaltalaisissa sairaaloissa julkaisussa havaittiin, että ennakoivat mallit on nyt integroitu kaikkeen riskipisteytykseen ja dokumentointiin logistiikkaan ja jopa itsenäisiin reseptien uusimiseen, mutta etulinjan henkilökunta valittaa yhä useammin näiden työkalujen epäonnistumisesta, avoimuuden puutteesta ja joskus heikentävistä kliinistä harkintaa. Tämä kitka on herättänyt protesteja ja lakkoja, ja kannattajat vaativat, että sairaanhoitajien on osallistuttava tekoälyä koskeviin päätöksiin, koska lopulta ihmiset kantavat tulokset.

Check out our other content

Check out other tags:

Suosituimmat artikkelit