Tervetuloa Eye on AI -ohjelmaan tekoälytoimittaja Sharon Goldmanin kanssa. Tässä painoksessa: OpenClawin villi puoli… Anthropicin uusi 20 miljoonan dollarin super-PAC laskuttaa OpenAI:ta… OpenAI lanseeraa ensimmäisen supernopeaan tuotantoon suunnitellun mallinsa… Anthropic kattaa tekoälyn palvelinkeskuksiensa sähkön hinnankorotukset… Isomorphic Labs sanoo avaneensa uuden biologisen rajan AlphaFoldin ulkopuolelle.
Ongelma OpenClawille poikkeuksellisen voiman antamisessa mielenkiintoisten asioiden tekemiseen? Ei ole yllättävää, että se antaa sinulle myös runsaasti mahdollisuuksia tehdä asioita, joita sinun ei pitäisi, mukaan lukien tietojen suodattaminen, ei-toivottujen komentojen suorittaminen tai hyökkääjien hiljainen kaappaaminen joko haittaohjelmien tai niin kutsuttujen “nopeiden injektioiden” hyökkäyksien kautta. (Kun joku sisällyttää tekoälyagentille haitallisia ohjeita tietoihin, joita tekoälyagentti voi käyttää.)
Jännittävä asia OpenClawissa, sanovat kaksi kyberturvallisuusasiantuntijaa, joiden kanssa puhuin tällä viikolla, on, että sillä ei ole rajoituksia, mikä antaa käyttäjille periaatteessa rajattoman vallan muokata sitä haluamallaan tavalla.
“Ainoa sääntö on, että sinulla ei ole sääntöjä”, sanoi Ben Seri, Zafran Securityn perustaja ja teknologiajohtaja. Zafran Security on erikoistunut tarjoamaan uhkien hallintaa yrityksille. “Se on osa peliä.” Mutta tämä peli voi muuttua turvallisuus painajaiseksi, koska säännöt ja rajat ovat tärkeitä hakkereiden ja vuotojen estämiseksi.
Klassiset turvallisuusongelmat
Turvallisuusongelmat ovat melko klassisia, sanoi Colin Shea-Blymyer, tutkija Georgetownin turvallisuus- ja kehittymisteknologiakeskuksesta (CSET), jossa hän työskentelee CyberAI-projektissa. Lupien väärin määritykset (kenellä tai millä on lupa tehdä mitä) tarkoittavat, että ihmiset voivat vahingossa antaa OpenClawille enemmän valtaa kuin he ymmärtävät, ja hyökkääjät voivat hyödyntää sitä.
Esimerkiksi OpenClawissa suuri osa riskeistä johtuu siitä, mitä kehittäjät kutsuvat “taidoiksi”, jotka ovat pohjimmiltaan sovelluksia tai lisäosia, joita tekoälyagentti voi käyttää toimintojen suorittamiseen, kuten tiedostojen käyttämiseen, verkon selaamiseen tai komentojen suorittamiseen. Erona on, että toisin kuin tavalliset sovellukset, OpenClaw päättää itse, milloin näitä kykyjä käyttää ja miten ne ketjutetaan yhteen, mikä tarkoittaa, että pieni lupavirhe voi nopeasti muuttua paljon vakavammaksi.
“Kuvittele, että käytätte sitä ravintolan varaussivulle ja pääset myös kalenteriisi, jossa on kaikenlaisia henkilökohtaisia tietoja”, hän sanoi. “Tai entä jos se on haittaohjelma ja se löytää väärän sivun ja asentaa viruksen?”
OpenClawilla on tietoturvasivuja dokumentaatiossaan ja se yrittää pitää käyttäjät valppaana ja tietoisina, Shea-Blymyer sanoi. Mutta turvallisuusongelmat ovat edelleen monimutkaisia teknisiä ongelmia, joita useimmat keskivertokäyttäjät eivät todennäköisesti ymmärrä täysin. Ja vaikka OpenClaw-kehittäjät voivat työskennellä kovasti korjatakseen haavoittuvuuksia, he eivät voi helposti ratkaista taustalla olevaa ongelmaa, joka liittyy agentin kykyyn toimia itsenäisesti, mikä tekee järjestelmästä niin houkuttelevan.
“Se on perustavanlaatuinen jännite tämäntyyppisissä järjestelmissä”, hän sanoi. “Mitä enemmän pääsyä annat heille, sitä hauskempia ja mielenkiintoisempia heistä tulee, mutta myös sitä vaarallisempia.”
Yritysyritykset tulevat omaksumaan hitaasti
Zafran Securityn Seri myönsi, että on vähän mahdollisuuksia tukahduttaa käyttäjien uteliaisuus OpenClawin kaltaisen järjestelmän suhteen, vaikka hän korosti, että kestää paljon kauemmin, ennen kuin yritykset ottavat käyttöön tällaisen hallitsemattoman ja epävarman järjestelmän. Hän sanoi, että keskivertokäyttäjän pitäisi kokea se ikään kuin he työskentelevät kemian laboratoriossa erittäin räjähtävän materiaalin kanssa.
Shea-Blymyer huomautti, että on positiivista, että OpenClaw tapahtuu ensin amatööritasolla. “Opimme paljon ekosysteemistä ennen kuin kukaan kokeilee sitä yritystasolla”, hän sanoi. “Tekoälyjärjestelmät voivat epäonnistua tavoilla, joita emme voi edes kuvitella”, hän selitti. “(OpenClaw) voisi antaa meille paljon tietoa siitä, miksi erilaiset LLM:t käyttäytyvät niin kuin toimivat ja uusista turvallisuusongelmista.”
Mutta vaikka OpenClaw saattaakin olla amatöörikokeilu nykyään, tietoturvaasiantuntijat pitävät sitä esikatseluna itsenäisten järjestelmien tyypeistä, joita yritykset lopulta tuntevat painetta ottaa käyttöön.
Toistaiseksi, ellei joku halua olla tietoturvatutkimuksen kohteena, keskivertokäyttäjä saattaa haluta pysyä poissa OpenClawista, Shea-Blymyer sanoi. Muussa tapauksessa älä ylläty, jos henkilökohtainen tekoälyavustajasi vaeltelee erittäin vihamieliselle alueelle.
FORTUNE IN AI
Matt Shumerin virusblogi tekoälyn välittömästä vaikutuksesta tietotyöntekijöihin perustuu virheellisiin oletuksiin – kirjoittanut Jeremy Kahn
Capgeminin toimitusjohtajalla on varoitus. Saatat ajatella väärin tekoälystä – kirjoittanut Kamal Ahmed
Googlen Nobel-palkittu tekoälyjohtaja näkee “renessanssin” 10–15 vuotta kestäneen ravistuksen jälkeen, Nick Lichtenberg
X-odus: Puolet xAI:n perustajatiimistä jätti Elon Muskin tekoälyyrityksen, mikä voi mutkistaa heidän suunnitelmiaan menestyksekkäästä SpaceX:n listautumisannista – Beatrice Nolan
OpenAI kiistää vahtikoiran väitteen, jonka mukaan se rikkoi Kalifornian uutta tekoälyn turvallisuuslakia lanseeraamalla uusimman mallin – Beatrice Nolan
AI Uutisissa
Anthropicin uusi 20 miljoonan dollarin super-PAC vastaa OpenAI:ta. New York Timesin mukaan Anthropic on luvannut 20 miljoonaa dollaria super-PAC-operaatioon, joka on suunniteltu tukemaan ehdokkaita, jotka kannattavat parempaa tekoälyn turvallisuutta ja sääntelyä, mikä luo suoran yhteentörmäyksen ennen välivaaleja. Rahoitus kulkee voittoa tavoittelemattoman Public First Actionin ja siihen liittyvien PAC:ien kautta, toisin kuin Leading the Future, super-PAC, jota tukevat pääasiassa OpenAI:n presidentti ja toinen perustaja Greg Brockman ja pääomasijoitusyritys Andreessen Horowitz. Vaikka Anthropic vältti nimeämästä OpenAI:ta suoraan, se varoitti, että “valtavia resursseja” käytetään vastustamaan tekoälyn turvallisuuspyrkimyksiä, korostaen tekoälyteollisuuden syvenevää kahtiajakoa sen suhteen, kuinka tiukasti tehokkaita malleja tulisi säännellä, ja totesi, että tekoälyn hallinnasta kamppailevat nyt paitsi laboratorioissa ja neuvotteluhuoneissa, myös äänestysurnilla.
Mustafa Suleyman suunnittelee tekoälyn “omavaraisuutta”, kun Microsoft löysää suhteita OpenAI:han. Financial Times raportoi, että Microsoft on siirtymässä kohti sitä, mitä sen tekoälypäällikkö Mustafa Suleyman kutsuu “todelliseksi omavaraisuudeksi” tekoälyssä, vauhdittaen ponnisteluja omien rajapohjaisten mallien rakentamiseksi ja pitkän aikavälin riippuvuuden vähentämiseksi OpenAI:sta, vaikka se on edelleen yksi startupin suurimmista tukijoista. Haastattelussa Suleyman sanoi, että muutos seurasi Microsoftin ja OpenAI:n suhteen uudelleenjärjestelyä viime lokakuussa, mikä säilytti pääsyn OpenAI:n edistyneimpiin malleihin vuoteen 2032 saakka, mutta antoi ChatGPT:n valmistajalle myös enemmän vapautta etsiä uusia sijoittajia ja kumppaneita, mikä saattaa muuttaa sen kilpailijaksi. Microsoft investoi nyt voimakkaasti gigawattimittaiseen laskentaan, dataputkiin ja eliittisiin tekoälytutkimusryhmiin. Suunnitelmissa on julkaista myöhemmin tänä vuonna omia sisäisiä malleja, joiden tarkoituksena on suoraan automatisoida hallintotyötä ja kaapata suurempi yritysmarkkinaosuus Suleymanin “ammattitason AGI:n” avulla.
OpenAI julkaisee ensimmäisen mallinsa, joka on suunniteltu erittäin nopeisiin tuloksiin. OpenAI on julkaissut tutkimusesikatselun GPT-5.3-Codex-Sparkista, joka on ensimmäinen konkreettinen tuote yhteistyöstä Cerebrasin kanssa, joka käyttää siruvalmistajan kiekon mittakaavassa olevaa tekoälylaitteistoa tuottaakseen erittäin alhaisen latenssin reaaliaikaisen koodauksen Codexissa. Pienin malli, GPT-5.3-Codexin optimoitu versio, on optimoitu nopeudelle maksimikapasiteetin sijaan, ja se tuottaa jopa 15 kertaa nopeammat vastaukset, jotta kehittäjät voivat tehdä tiettyjä muokkauksia, muokata logiikkaa ja iteroida interaktiivisesti odottamatta pitkiä ajoja. Alun perin ChatGPT Pron käyttäjille ja pienelle joukolle API-kumppaneita saatavilla oleva tutkimusesikatselu on julkaisu, joka osoittaa OpenAI:n keskittyvän yhä enemmän vuorovaikutusnopeuteen, kun tekoälyagentit ottavat itsenäisempiä, pitkäkestoisempia tehtäviä, ja reaaliaikainen koodaus on ensimmäinen testitapaus siitä, mitä voidaan avata nopeammalla päättelyllä.
Isomorphic Labs sanoo, että se on avannut uuden biologisen rajan AlphaFoldin ulkopuolelle. Isomorphic Labs, Alphabetin ja DeepMindin sidoksissa oleva tekoälylääkeyhtiö, sanoo, että sen uusi Isomorphic Labs -lääkesuunnittelumoottori edustaa suurta edistystä laskennallisessa lääketieteessä yhdistämällä useita tekoälymalleja yhtenäiseksi moottoriksi, joka voi ennustaa biologisten molekyylien vuorovaikutuksen ennennäkemättömällä tarkkuudella. Blogiviestissä kerrottiin, että se yli kaksinkertaisti aiemman suorituskyvyn keskeisissä vertailuarvoissa ja ylitti perinteiset fysiikkaan perustuvat menetelmät sellaisissa tehtävissä kuin proteiinien ja ligandien rakenteen ennustaminen ja sitoutumisaffiniteetin arviointi – ominaisuudet, jotka yrityksen mukaan voisivat nopeuttaa merkittävästi uusien lääkekandidaattien suunnittelua ja optimointia. Järjestelmä perustuu vuonna 2024 lanseeratun AlphaFold 3:n, edistyneen tekoälymallin, joka ennustaa kaikkien elämän molekyylien, mukaan lukien proteiinien, DNA:n ja RNA:n, 3D-rakenteet ja vuorovaikutukset. Mutta yritys sanoo menevänsä pidemmälle tunnistamalla uusia sitoutumiskeskuksia, yleistämällä koulutusdatan ulkopuolisiin rakenteisiin ja integroimalla nämä ennusteet skaalautuvaksi alustaksi, jonka tavoitteena on kattaa rakennebiologian ja todellisen lääkekehityksen välinen kuilu, mikä mahdollisesti muuttaa tapaa, jolla lääketutkimus käsittelee vaikeita kohteita ja laajenee monimutkaisiin biologioihin.
VARO IA77 % LUKUJA
Näin monet tietoturva-ammattilaiset kertovat ainakin jonkin verran mukavuudesta antaa autonomiset tekoälyjärjestelmät toimia ilman ihmisen valvontaa, vaikka he ovat edelleen varovaisia, kertoo uusi 1 200 tietoturva-ammattilaista koskeva tutkimus, jonka Ivanti, globaali IT- ja tietoturvaohjelmistoyritys, teki. Lisäksi raportissa todettiin, että agenttien tekoälyn käyttöönotto on prioriteetti 87 prosentille tietoturvatiimeistä.
Ivantin turvallisuuspäällikkö Daniel Spicer sanoo kuitenkin, että turvallisuustiimien ei pitäisi olla liian tyytyväinen ajatukseen itsenäisen tekoälyn käyttöönotosta. Vaikka kannattajat suhtautuvat optimistisesti tekoälyn lupauksiin kyberturvallisuudessa, havainnot osoittavat myös, että yritykset ovat vieläkin enemmän jäljessä sen suhteen, kuinka hyvin ne ovat valmistautuneet puolustautumaan erilaisia uhkia vastaan.
“Tätä kutsun “kyberturvallisuusvalmiuden aukoksi”, hän kirjoitti blogikirjoituksessaan, “pysyvä, vuodesta toiseen epätasapaino organisaation kyvyssä puolustaa tietojaan, ihmisiä ja verkkojaan kehittyvää teknologista maisemaa vastaan.”
SINULLA ON KALENTERI
10.–11. helmikuuta: AI Action Summit, New Delhi, Intia.
24.-26. helmikuuta: International Association for Safe and Ethical AI (IASEAI), UNESCO, Pariisi, Ranska.
2.–5. maaliskuuta: Mobile World Congress, Barcelona, Espanja.
16.–19. maaliskuuta: Nvidia GTC, San Jose, Kalifornia.
6.-9. huhtikuuta: HumanX, San Francisco.