Anthropic toimitusjohtaja Dario Amodei ei usko, että hänen pitäisi olla se, joka tekee päätöksiä tekoälyä ympäröivistä esteistä.
“Luulen, että olen erittäin epämiellyttävä muutaman yrityksen, muutaman ihmisen tekemästä näistä päätöksistä”, Amodei sanoi. “Ja tämä on yksi syy, miksi olen aina kannattanut vastuullista ja harkittua teknologian sääntelyä.”
“Kuka valitsi sinut ja Sam Altmanin?” -Cooper kysyi.
“Ei kukaan. Rehellisesti, ei kukaan”, Amodei vastasi.
Anthropic on omaksunut filosofian olla avoin tekoälyn rajoituksista (ja vaaroista) sen kehittyessä, hän lisäsi. Viime viikolla yhtiö sanoi tehneensä tyhjäksi “ensimmäisen dokumentoidun tapauksen laajasta tekoälyn kyberhyökkäyksestä, joka toteutettiin ilman merkittävää ihmisen väliintuloa”.
Ei ole olemassa liittovaltion säädöksiä, jotka rajoittaisivat tekoälyä tai ympäröivät tekniikan turvallisuutta. Vaikka kaikki 50 osavaltiota ovat ottaneet käyttöön tekoälyyn liittyvää lainsäädäntöä tänä vuonna ja 38 osavaltiota on hyväksynyt tai ottanut käyttöön avoimuus- ja turvallisuustoimenpiteitä, teknologia-alan asiantuntijat ovat kehottaneet tekoälyyrityksiä puuttumaan kyberturvallisuuteen kiireellisesti.
Aiemmin tänä vuonna kyberturvallisuusasiantuntija ja Mandiantin toimitusjohtaja Kevin Mandiat varoitti tekoälyagentin ensimmäisestä kyberturvallisuushyökkäyksestä seuraavien 12–18 kuukauden aikana, mikä tarkoittaa, että Anthropic ilmoitti estyneestä hyökkäyksestä kuukausia Mandian ennakoitua aikajanaa edellä.
Amodei on hahmotellut rajoittamattomaan tekoälyyn liittyvät lyhyen, keskipitkän ja pitkän aikavälin riskit: Teknologia tuo ensin harhaan ja väärää tietoa, kuten nytkin. Se tuottaa sitten haitallista tietoa käyttämällä parannettua tiede- ja insinööritietämystä, ennen kuin lopulta muodostaa eksistentiaalisen uhan poistamalla inhimillisen tahon, mahdollisesti tulossa liian itsenäiseksi ja sulkemalla ihmiset pois järjestelmistä.
Huolet heijastelevat “AI:n kummisetä” Geoffrey Hintonin huolenaiheita, joka varoitti, että tekoäly pystyy oveltamaan ja hallitsemaan ihmisiä ehkä seuraavan vuosikymmenen aikana.
Lisääntynyt tekoälyn valvonta ja suojatoimet olivat perusta Anthropicin perustamiselle vuonna 2021. Amodei oli aiemmin tutkimusjohtajana Sam Atlmanin OpenAI:ssa. Hän jätti yrityksen mielipide-erojen vuoksi tekoälyn turvallisuuskysymyksistä.
“OpenAI:ssa oli ryhmä meitä, joilla GPT-2:n ja GPT-3:n luomisen jälkeen meillä oli tavallaan erittäin vahva usko kahteen asiaan”, Amodei kertoi Fortunelle vuonna 2023. “Yksi oli ajatus, että jos lisäät laskelmia näihin malleihin, ne paranevat ja paranevat ja että tälle ei ole läheskään loppua… Ja toiseksi tarvittiin jotain mallia. turvallisuus.”
Anthropicin avoimuuspyrkimykset
Kun Anthropic laajentaa edelleen datakeskusinvestointejaan ja saavuttaa 183 miljardin dollarin arvosanan syyskuussa, se on julkaissut osan ponnisteluistaan tekoälyn puutteiden ja uhkien korjaamiseksi. Toukokuun tietoturvaraportissa Anthropic kertoi, että jotkin sen Opus-mallin versiot uhkasivat kiristämällä, kuten paljastamalla, että insinöörillä oli suhde, välttääkseen sulkemisen. Yhtiö sanoi myös, että tekoälymalli täytti vaaralliset pyynnöt, jos sille annettiin haitallisia ohjeita, kuten terrori-iskun suunnittelu, jonka se sanoi jo korjaaneensa.
Viime viikolla yritys kertoi blogikirjoituksessaan, että sen chatbot Claude ansaitsi 94 %:n “poliittisen puolueettomuuden” luokituksen, mikä ohitti tai vertaa kilpailijoitaan puolueettomuudessa.
Anthropicin omien tutkimusponnistelujen lisäksi teknologian korruption torjumiseksi Amodei on vaatinut suurempia lainsäädäntötoimia tekoälyriskien käsittelemiseksi. New York Timesissa kesäkuussa hän kritisoi senaatin päätöstä sisällyttää presidentti Donald Trumpin lakiin säännös, joka määrää 10 vuoden moratorion tekoälyä sääteleville osavaltioille.
“Tekoäly liikkuu liian nopeasti”, Amodei sanoi. “Luulen, että nämä järjestelmät voivat muuttaa maailmaa perusteellisesti kahdessa vuodessa; 10 vuodessa kaikki vedot ovat poissa.”
Anthropicin käytäntö tuoda esiin omat virheensä ja sen pyrkimykset korjata ne on herättänyt kritiikkiä. Vastauksena Anthropicin hälytykseen tekoälyllä toimivasta kyberturvallisuushyökkäyksestä, Metan johtava tekoälytutkija Yann LeCun sanoi, että varoitus oli tapa manipuloida lainsäätäjiä rajoittamaan avoimen lähdekoodin mallien käyttöä.
“Ihmiset, jotka haluavat saada säädösten vangittua, johtavat sinua harhaan”, LeCun sanoi X-viestissä vastauksena Connecticutin senaattorin Chris Murphyn viestiin, jossa hän ilmaisi huolensa hyökkäyksestä. “He pelottelevat kaikkia kyseenalaisilla tutkimuksilla, jotta avoimen lähdekoodin malleja säännellään ja poistetaan.”
Anthropic ei heti vastannut Fortunen kommenttipyyntöön.
Toiset ovat sanoneet, että Anthropicin strategia on “turvateatteri”, joka merkitsee hyvää brändäystä, mutta teknologian varsinaisesta turvatoimien toteuttamisesta ei ole lupauksia. Amodei kiisti tämän ja sanoi, että yrityksen on oltava rehellinen tekoälyn puutteista.
“Se riippuu tulevaisuudesta, emmekä aina ole oikeassa, mutta määrittelemme sen parhaamme mukaan”, hän sanoi Cooperille. “Voit päätyä savukeyhtiöiden tai opioidiyhtiöiden maailmaan, jossa he tiesivät vaaroista, eivätkä he puhuneet niistä eivätkä varmasti estäneet niitä.”