Hei ja tervetuloa Eye on AI -ohjelmaan. Tässä painoksessa… miksi sinun pitäisi todella välittää Moltbookista… OpenAI silmät IPO… Elon Musk yhdistää SpaceX:n ja xAI:n… Aloittelijat eivät hyödy niin paljon tekoälystä kuin ihmiset luulevat… ja miksi tarvitsemme tekoälyn sääntelyä nyt.
Tällä viikolla kaikki tekoälyssä (ja monet sen ulkopuolella) puhuivat Moltbookista. Tekoälyagenteille luotu sosiaalisen median alusta oli virussensaatio. Ilmiö sai monet ihmiset, mukaan lukien suuren joukon normaalisti raittiita ja maanläheisiä tekoälytutkijoita, ihmettelemään ääneen, kuinka kaukana olemme tieteiskirjallisuuden “nousu”-skenaarioista, joissa tekoälyrobotit organisoituvat, parantavat itseään ja pakenevat ihmisen hallinnasta.
Nyt näyttää siltä, että suuri osa Moltbookia koskevasta hälytyksestä oli väärässä paikassa. Ensinnäkin on epäselvää, kuinka monet Moltbookin scifimäisemmistä viesteistä ovat spontaanisti robottien luomia ja kuinka monet syntyivät vain siitä syystä, että käyttäjät pyysivät OpenClaw-agenttejaan julkaisemaan ne. (Kaikki Moltbookin botit luotiin käyttämällä erittäin menestyvää OpenClaw-ohjelmaa, joka on pohjimmiltaan avoimen lähdekoodin agentti “valjaat” (ohjelmisto, jonka avulla tekoälyagentit voivat käyttää monia muita ohjelmistotyökaluja), jotka voidaan liittää mihin tahansa taustalla olevaan tekoälymalliin.) On jopa mahdollista, että jotkin viestit olivat itse asiassa ihmisiltä, jotka esiintyvät botteina.
Toiseksi, ei ole todisteita siitä, että robotit todella tekivät salaliittoa tehdäkseen jotain pahaa sen sijaan, että ne olisivat vain jäljitelleet salaliittoa koskevaa kieltä, jota he ovat saattaneet oppia koulutuksessaan, joka sisältää paljon tieteiskirjallisuutta sekä historiallisia tietoja monista luonnostelevista ihmisten toimista sosiaalisessa mediassa.
Kuten totesin tänään Fortune-artikkelissa, monet Moltbookin ympärillä olevista pelkoa herättävistä otsikoista toistivat ne, jotka osallistuivat vuoden 2017 Facebook-kokeeseen, jossa kaksi chatbottia kehittivät “salaisen kielen” kommunikoidakseen keskenään. Silloin, kuten nyt, monet toimittajatovereistani eivät antaneet tosiasioiden olla hyvän tarinan tiellä. Kumpikaan aikaisempi Facebook-tutkimus tai Moltbook eivät esitä sellaisia Skynetin kaltaisia vaaroja, joita jotkut kattavuus viittaavat.
Nyt huonoja uutisia
Mutta siihen hyvät uutiset päättyvät. Moltbook osoittaa, että tekoälyagenttien suhteen olemme villissä lännessä. Kuten kollegani Bea Nolan huomauttaa tässä erinomaisesti perustellussa artikkelissa, Moltbook on kyberturvallisuuden painajainen, joka on täynnä haittaohjelmia, kryptovaluutan pumppaushuijauksia ja piilotettuja nopeita injektiohyökkäyksiä – toisin sanoen koneellisesti luettavia ohjeita, joita ihmiset eivät joskus helposti havaitse ja jotka yrittävät kaapata tekoälyagentin tekemään jotain, mitä se ei voi tehdä. Tietoturvatutkijoiden mukaan näyttää siltä, että jotkut OpenClaw-käyttäjät kärsivät vakavista tietomurroista sallittuaan tekoälyagenttiensa käyttää Moltbookia. Nopea lisäys on ratkaisematon kyberturvallisuushaaste kaikille tekoälyagenteille, jotka voivat käyttää Internetiä juuri nyt. Ja siksi monet tekoälyasiantuntijat sanoivat olevansa erittäin varovaisia ohjelmistojen, työkalujen ja tietojen suhteen, joita he antavat tekoälyagenteille käyttää. Jotkut sallivat agenttien käyttää Internetiä vain, jos he ovat virtuaalikoneessa, jossa he eivät voi käyttää tärkeitä tietoja, kuten salasanoja, työtiedostoja, sähköpostia tai pankkitietoja. Mutta toisaalta nämä turvatoimenpiteet tekevät tekoälyagenteista paljon vähemmän hyödyllisiä. Ainoa syy OpenClaw:n nousuun on se, että ihmiset halusivat helpon tavan aktivoida agentit tekemään asioita heidän puolestaan. Sitten on tekoälyn suuret turvallisuusvaikutukset. Se, että ei ole todisteita siitä, että OpenClaw-agentit olisivat riippumattomia, ei tarkoita, että heidän saattaminen hallitsemattomaan keskusteluun muiden tekoälyagenttien kanssa olisi hieno idea. Kun näillä agenteilla on pääsy työkaluihin ja Internetiin, sillä ei ole jollain tapaa oikeastaan väliä, ymmärtävätkö he omaa toimintaansa vai ovatko he tietoisia. Pelkästään matkimalla koulutuksen aikana nauttimiaan science fiction -skenaarioita on mahdollista, että tekoälyagentit voivat osallistua toimiin, jotka voivat aiheuttaa todellista haittaa monille ihmisille, esimerkiksi kyberhyökkäyksiä. (Pohjimmiltaan nämä tekoälyagentit voisivat työskennellä tavoilla, jotka eivät eroa niin paljon supervoimakkaista “mato”-tietokoneviruksista. Kukaan ei usko, että WannaCry-lunnasohjelma oli tietoinen. Silti se aiheutti valtavia vahinkoja ympäri maailmaa.)
Miksi Yann LeCun oli väärässä… ihmisten suhteen, ei tekoälyn suhteen
Muutama vuosi sitten osallistuin tapahtumaan Facebookin AI Research Labissa Pariisissa, jossa puhui Yann LeCun, joka oli Metan tuolloin johtava tekoälytutkija. LeCun, joka jätti äskettäin Metan käynnistääkseen oman tekoälystartupnsa, on aina suhtautunut skeptisesti “lähdön” skenaarioihin, joissa tekoäly pakenee ihmisen hallinnasta. Ja tapahtumassa hän pilkkasi ajatusta, että tekoäly aiheuttaisi koskaan eksistentiaalisia riskejä.
Toisaalta LeCun uskoo, että nykyinen tekoäly on liian tyhmä ja epäluotettava tekemään mitään, mikä vaarantaa maailmaa. Mutta toiseksi LeCun piti näitä tekoälyn “lähdön” skenaarioita loukkaavina tekoälytutkijoille ja -insinööreille ammattiluokkana. Emme ole tyhmiä, LeCun väitti. Jos koskaan rakentaisimme jotain, jossa oli edes syrjäisin mahdollisuus paeta tekoälyä, rakentaisimme sen aina “ilmalukilliseen” hiekkalaatikkoon ilman Internet-yhteyttä ja tappamiskytkintä, jota tekoäly ei voinut poistaa käytöstä. LeCunin mukaan insinöörit voisivat aina murskata tietokoneen virtajohdon kirveellä ennen kuin tekoäly pystyi selvittämään, kuinka päästä ulos digitaalisesta häkistä.
No, se voi olla totta tekoälyn tutkijoille ja insinööreille, jotka työskentelevät suurissa yrityksissä, kuten Meta tai Google DeepMind tai OpenAI tai Anthropic. Mutta nyt tekoäly on koodausagenttien ja avustajien lisääntymisen ansiosta demokratisoinut itse tekoälyn luomisen. Nyt maailma täynnä itsenäisiä kehittäjiä voi luoda tekoälyagentteja. Peter Steinberger, OpenClawin luoja, on itsenäinen kehittäjä. Matt Schlicht, joka loi Moltbookin, on itsenäinen yrittäjä, joka koodasi sosiaalisen alustan. Ja toisin kuin LeCun, riippumattomat kehittäjät ovat jatkuvasti osoittaneet haluavansa viedä tekoälyjärjestelmiä pois hiekkalaatikosta ja luontoon, jos vain nähdäkseen mitä tapahtuu… vain LOL:ille.
Se sanoi, tässä on lisää AI-uutisia.
Jeremy Kahnjeremy.kahn@fortune.com@jeremyakahn
Tämä tarina ilmestyi alun perin Fortune.com-sivustolla