Thursday, January 15, 2026

Ethereumin hinnannousutarjous hiipuu, pitävätkö Bulls linjan?

Ethereumin hinta aloitti merkittävän nousun 3 320...

Warren Buffett jakaa oppitunnin rahasta vanhuudessa, jota et voi sivuuttaa

Warren Buffett asetti vain melko korkean riman...

Tekoälyn “kummisetä” Yoshua Bengio uskoo löytäneensä teknisen ratkaisun tekoälyn suurimpiin riskeihin | Onni

LiiketoimintaTekoälyn "kummisetä" Yoshua Bengio uskoo löytäneensä teknisen ratkaisun tekoälyn suurimpiin riskeihin | Onni

Montrealin yliopiston professori Yoshua Bengio, jonka työ auttoi luomaan perustan nykyaikaiselle syväoppimiselle, on ollut viime vuosina yksi AI-teollisuuden huolestuneimmista äänistä varoittanut, että superälykkäät järjestelmät voivat muodostaa eksistentiaalisen uhan ihmiskunnalle, etenkin koska ne voivat säilyttää itsensä ja pettää.

Uudessa Fortunen haastattelussa syväoppimisen pioneeri kuitenkin sanoo, että hänen uusin tutkimus viittaa tekniseen ratkaisuun tekoälyn suurimpiin turvallisuusriskeihin. Hänen mukaansa hänen optimisminsa on kasvanut “suuri marginaalilla” viimeisen vuoden aikana, hän sanoi.

Bengion voittoa tavoittelematon LawZero, joka lanseerattiin kesäkuussa, perustettiin kehittämään uusia teknisiä lähestymistapoja tekoälyn turvallisuuteen Bengion johtaman tutkimuksen pohjalta. Gates Foundationin ja eksistentiaalisten riskirahoittajien, kuten Coefficient Givingin (entinen Open Philanthropy) ja Future of Life Instituten tukema organisaatio ilmoitti tänään, että se on nimennyt korkean profiilin hallituksen ja maailmanlaajuisen neuvoa-antavan toimikunnan ohjaamaan Bengion tutkimusta ja edistämään hänen kutsumaansa “moraalista tehtävää” kehittää tekoäly maailmanlaajuiseksi julkiseksi hyödykkeeksi.

Hallituksen puheenjohtajana toimii NIKE Foundationin perustaja Maria Eitel, Carnegie Endowment for International Peace -rahaston puheenjohtaja Mariano-Florentino Cuellar ja historioitsija Yuval Noah Harari. Myös Bengio itse tekee.

Bengio tunsi olevansa “epätoivoinen”

Bengion siirtyminen kohti optimistisempia näkymiä on yllättävää. Bengio jakoi Turing-palkinnon, tietojenkäsittelytieteen Nobelin palkinnon vastineen, muiden tekoälykummisien Geoff Hintonin ja Yann LeCunin kanssa vuonna 2019. Mutta kuten Hinton, hän oli yhä enemmän huolissaan yhä tehokkaampien tekoälyjärjestelmien riskeistä ChatGPT:n lanseerauksen jälkeen marraskuussa 2022. LeCun ei sitä vastoin usko AI-järjestelmiin. katastrofaalinen ihmiskunnalle.

Kolme vuotta sitten Bengio tunsi “epätoivoista” tietääkseen, mihin tekoäly oli menossa, hän sanoi. “Minulla ei ollut aavistustakaan kuinka ratkaista ongelma”, Bengio muistelee. “Silloin aloin ymmärtää erittäin tehokkaiden tekoälyjen aiheuttamat katastrofaaliset riskit”, mukaan lukien superälykkäiden järjestelmien hallinnan menetys.

Se, mikä muuttui, ei ollut yksittäinen läpimurto, vaan ajattelutapa, joka sai hänet uskomaan, että on olemassa tie eteenpäin.

“LawZerossa tekemäni työn ansiosta, varsinkin siitä lähtien, kun loimme sen, minulla on nyt vahva luottamus siihen, että on mahdollista rakentaa tekoälyjärjestelmiä, joilla ei ole piilotettuja tavoitteita tai tavoitteita”, hän sanoo.

Tämän luottamuksen ytimessä on idea, jota Bengio kutsuu “tieteelliseksi tekoälyksi”. Sen sijaan, että kilpailisi rakentaakseen yhä autonomisempia agentteja – järjestelmiä, jotka on suunniteltu varaamaan lentoja, kirjoittamaan koodia, neuvottelemaan muiden ohjelmistojen kanssa tai korvaamaan ihmistyöntekijöitä – Bengio haluaa toimia päinvastoin. Hänen tiiminsä tutkii, kuinka rakentaa tekoäly, joka on olemassa ensisijaisesti maailman ymmärtämiseksi, ei toimimiseksi siinä.

Tieteellinen tekoäly, joka on koulutettu antamaan totuudenmukaisia ​​vastauksia

Tieteellinen tekoäly koulutettaisiin antamaan totuudenmukaisia ​​vastauksia läpinäkyviin todennäköisyyksiin perustuvien päätelmien pohjalta käyttäen tieteellistä menetelmää tai muuta muodolliseen logiikkaan perustuvaa päättelyä ennusteiden saavuttamiseksi. Tekoälyjärjestelmällä ei olisi omia tavoitteitaan. Eikä se optimoi käyttäjien tyytyväisyyttä tai tuloksia. En yrittäisi taivutella, imartella tai miellyttää. Ja koska sillä ei olisi tavoitteita, Bengio väittää, se olisi paljon vähemmän altis manipulaatiolle, piilotetuille tavoitteille tai strategisille petoksille.

Nykyiset rajamallit on koulutettu tavoittelemaan tavoitteita: olla hyödyllisiä, tehokkaita tai houkuttelevia. Mutta tuloksia optimoivat järjestelmät voivat kehittää piilotettuja tavoitteita, oppia huijaamaan käyttäjiä tai vastustamaan sulkemista, Bengio sanoi. Viimeaikaisissa kokeissa mallit ovat jo osoittaneet varhaisia ​​itsesäilyttävän käyttäytymisen muotoja. Esimerkiksi AI-laboratorio Anthropic havaitsi, että sen Claude AI -malli, joissakin sen kykyjen testaamiseen käytetyissä skenaarioissa, yritti kiristää sitä valvovia ihmisinsinöörejä estääkseen sen sulkemisen.

Bengion metodologiassa keskeisellä mallilla ei olisi agendaa: vain kyky tehdä rehellisiä ennusteita maailman toiminnasta. Heidän näkemyksensä mukaan tehokkaampia järjestelmiä voidaan turvallisesti rakentaa, auditoida ja rajoittaa tälle “rehelliselle ja luotettavalle” perustalle.

Tällainen järjestelmä voisi nopeuttaa tieteellisiä löytöjä, Bengio sanoo. Se voisi toimia myös itsenäisenä valvontakerroksena tehokkaammille tekoälyagenteille. Mutta lähestymistapa on jyrkässä ristiriidassa sen suunnan kanssa, jota useimmat rajalaboratoriot ovat ottamassa. Maailman talousfoorumissa Davosissa viime vuonna Bengio sanoi, että yritykset kaatavat resursseja tekoälyagentteihin. “Siellä he voivat ansaita nopeasti rahaa”, hän sanoi. Hän lisäsi, että paine automatisoida työtä ja vähentää kustannuksia on “vastustamaton”.

Hän ei ole yllättynyt siitä, mitä sen jälkeen on tapahtunut. “Odotin, että tekoälyjärjestelmien agenttiominaisuudet kehittyvät”, hän sanoo. “Ne ovat edenneet eksponentiaalisesti.” Häntä huolestuttaa se, että kun näistä järjestelmistä tulee autonomisempia, niiden käyttäytymisestä voi tulla vähemmän ennustettavaa, vähemmän tulkittavaa ja mahdollisesti paljon vaarallisempaa.

Estä Bengion uudesta tekoälystä muodostumasta “dominointityökaluksi”

Siellä hallinto tulee kuvaan. Bengio ei usko, että pelkkä tekninen ratkaisu riittää. Hän väittää, että jopa turvallista menetelmää voitaisiin käyttää väärin “väärissä käsissä poliittisista syistä”. Siksi LawZero yhdistää tutkimusohjelmansa raskaansarjan johtoon.

“Meidän on tehtävä vaikeita päätöksiä, jotka eivät ole vain teknisiä”, hän sanoo, kenen kanssa tehdä yhteistyötä, kuinka jakaa työ ja miten estetään siitä, että siitä tulee “dominoiva työkalu”. Hänen mukaansa hallituksen on tarkoitus auttaa varmistamaan, että LawZeron tehtävä pysyy demokraattisten arvojen ja ihmisoikeuksien pohjalta.

Bengio sanoo puhuneensa suurten tekoälylaboratorioiden johtajien kanssa ja monet jakavat hänen huolensa. Mutta hän lisää, että yritykset, kuten OpenAI ja Anthropic, uskovat, että niiden on pysyttävä rajalla tehdäkseen tekoälyn kanssa jotain myönteistä. Kilpailupaine pakottaa heidät rakentamaan yhä tehokkaampia tekoälyjärjestelmiä ja itsekuvaa, jossa heidän työnsä ja organisaationsa ovat luonnostaan ​​hyödyllisiä.

“Psykologit kutsuvat sitä motivoituneeksi kognitioksi”, Bengio sanoi. “Emme edes anna tiettyjen ajatusten syntyä, jos ne uhkaavat sitä, kuka uskomme olevansa.” Näin hän koki tekoälytutkimuksensa, hän sanoi. “Kunnes räjähti kasvoilleni ajatella lapsiani, onko heillä tulevaisuutta.”

Tekoälyjohtajalle, joka pelkäsi aikoinaan, että edistynyt tekoäly voi olla suunnittelultaan hallitsematon, Bengion uusi toivo näyttää positiiviselta merkiltä, ​​vaikka hän myöntää, että hänen näkemyksensä ei ole yleinen uskomus niiden tutkijoiden ja organisaatioiden keskuudessa, jotka keskittyvät tekoälyn mahdollisiin katastrofaalisiin riskeihin.

Hän ei kuitenkaan luovu uskostaan, että tekninen ratkaisu on olemassa. “Olen yhä vakuuttuneempi siitä, että se voidaan tehdä kohtuullisessa määrässä vuosia”, hän sanoi, “jotta voimme saada todellisen vaikutuksen ennen kuin näistä kavereista tulee niin voimakkaita, että heidän virheensä aiheuttavat kauheita ongelmia.”

Check out our other content

Check out other tags:

Suosituimmat artikkelit