Wednesday, February 11, 2026

OpenAI näyttää rikkoneen Kalifornian tekoälyn turvallisuuslakia julkaisemalla GPT-5.3-Codexin, vahtikoiraryhmä sanoo | Onni

LiiketoimintaOpenAI näyttää rikkoneen Kalifornian tekoälyn turvallisuuslakia julkaisemalla GPT-5.3-Codexin, vahtikoiraryhmä sanoo | Onni

OpenAI on saattanut rikkoa Kalifornian uutta tekoälyn turvallisuuslakia julkaisemalla uusimman koodausmallinsa tekoälyn valvontaryhmän väitteiden mukaan.

Rikkomus altistaisi yrityksen miljoonien dollarien sakkoihin, ja tapauksesta voisi tulla ennakkotapaus uuden lain säännösten ensimmäinen testi.

Kiista keskittyy GPT-5.3-Codexiin, OpenAI:n uusimpaan koodausmalliin, joka julkaistiin viime viikolla. Malli on osa OpenAI:n pyrkimystä saada takaisin johtoasema tekoälypohjaisessa koodauksessa, ja OpenAI:n julkaisemien vertailutietojen mukaan se näyttää huomattavasti paremman suorituskyvyn koodaustehtävissä kuin OpenAI:n ja kilpailijoiden, kuten Anthropicin, mallien aiemmat versiot. Malli on kuitenkin herättänyt myös ennennäkemättömiä kyberturvallisuusongelmia.

Toimitusjohtaja Sam Altman sanoi, että malli saavutti ensimmäisenä “korkean” kyberturvallisuusriskiluokan yrityksen Readiness Frameworkissa, sisäisessä riskiluokitusjärjestelmässä, jota OpenAI käyttää mallien julkaisuissa. Tämä tarkoittaa, että OpenAI luokittelee mallin olennaisesti riittävän koodauskykyiseksi mahdollistaakseen merkittävän kybervahingon, varsinkin jos se on automatisoitu tai käytetty mittakaavassa.

Tekoälyn valvojaryhmä Project Midas väittää, että OpenAI ei täyttänyt omia turvallisuussitoumuksiaan, jotka ovat nyt Kalifornian lain mukaan laillisesti sitovia, kun uusi riskialtista malli lanseerattiin.

Kalifornian SB 53, joka tuli voimaan tammikuussa, vaatii suuria tekoälyyrityksiä julkaisemaan ja panemaan täytäntöön omat turvallisuuskehyksensä, joissa kerrotaan yksityiskohtaisesti, kuinka ne estävät katastrofaaliset riskit (määritelty tapauksiksi, jotka aiheuttavat yli 50 kuolemaa tai miljardin dollarin omaisuusvahingot) malleilleen. Se myös kieltää näitä yrityksiä antamasta harhaanjohtavia lausuntoja vaatimustenmukaisuudesta.

OpenAI-tietoturvakehys vaatii erityisiä suojatoimia riskialttiille kyberturvamalleille, jotka on suunniteltu estämään tekoälyä tekemästä petollisia toimia, kuten toimimasta petollisesti, sabotoimasta tietoturvatutkimusta tai piilottamasta sen todellisia ominaisuuksia. Yritys ei kuitenkaan ottanut näitä suojatoimia käyttöön ennen GPT-5.3-Codexin julkaisua.

OpenAI sanoo tämän johtuvan siitä, että kehyksen sanamuoto on “epäselvä”. Mallin mukana toimitetussa tietoturvaraportissa OpenAI sanoi, että suojatoimet ovat välttämättömiä vain, kun suuri kyberriski esiintyy “yhdessä” pitkän kantaman autonomian kanssa – kyvyn toimia itsenäisesti pitkiä aikoja. Koska yritys uskoo, että GPT-5.3-Codexista puuttuu tämä autonomia, he sanovat, että suojatoimet eivät olleet tarpeellisia.

OpenAI:n tiedottaja kertoi Fortunelle, että yritys oli “varma siitä, että noudatamme rajaturvalakeja, mukaan lukien SB 53”.

“GPT-5.3-Codex on saattanut päätökseen täyden testaus- ja hallintoprosessimme, kuten julkisesti julkaistussa järjestelmäkortissa on kuvattu, eikä osoittanut pitkän kantaman autonomiakykyä, joka perustuu välityspalvelinarviointiin ja sisäisten asiantuntijoiden, mukaan lukien turvallisuusneuvontaryhmämme, arvioiden vahvistama”, tiedottaja sanoi. He sanoivat, että yritys aikoi selventää nykyisen valmiuskehyksen kieltä voidakseen viestiä paremmin siitä, mitä yritys sanoo olevan sen alkuperäinen tarkoitus, sen sijaan, että muuttaisi sisäisiä käytäntöjä.

Jotkut turvallisuustutkijat ovat kuitenkin kyseenalaistaneet tämän tulkinnan. Nathan Calvin, Encoden valtioasioiden varapresidentti ja lakimies, sanoi viestissä

Project Midas väittää myös, että OpenAI ei voi lopullisesti todistaa, että mallista puuttuu lisämittauksiin tarvittava autonomia, koska yrityksen edellinen, vähemmän edistynyt malli jo ylitti maailmanlaajuiset vertailuarvot itsenäisten tehtävien suorittamisessa. Ryhmä väittää, että vaikka säännöt olisivat epäselviä, OpenAI:n olisi pitänyt selventää niitä ennen mallin julkaisua.

Project Midasin perustaja Tyler Johnston kutsui mahdollista rikkomusta “erityisen kiusallisena, kun otetaan huomioon, kuinka alhainen SB 53 -sarjojen lattia on: Pohjimmiltaan vain hyväksy valitsemasi vapaaehtoinen turvallisuussuunnitelma ja kommunikoi siitä rehellisesti, muuttaen sitä tarpeen mukaan, mutta rikkomatta sitä tai valehtelematta siitä.”

Jos tutkinta aloitetaan ja väitteet osoittautuvat oikeiksi, SB 53 sallii rikkomuksista merkittävien seuraamusten, jotka voivat nousta miljooniin dollareihin noudattamatta jättämisen vakavuudesta ja kestosta riippuen. Kalifornian syyttäjänviraston edustaja kertoi Fortunelle, että osasto oli “sitoutunut osavaltiomme lakien täytäntöönpanoon, mukaan lukien ne, jotka on säädetty lisäämään läpinäkyvyyttä ja turvallisuutta nousevassa tekoälytilassa”. He sanoivat kuitenkin, että osasto ei voinut kommentoida tai edes vahvistaa tai kiistää mahdollisia tai meneillään olevia tutkimuksia.

Check out our other content

Check out other tags:

Suosituimmat artikkelit