Saturday, November 15, 2025

AI Kummisetä varoittaa ihmiskunnan riskejen sukupuuttoa hyperintelligenttien koneiden kanssa omilla “säilyttämistavoitteillaan” 10 vuoden kuluessa | Onni

LiiketoimintaAI Kummisetä varoittaa ihmiskunnan riskejen sukupuuttoa hyperintelligenttien koneiden kanssa omilla "säilyttämistavoitteillaan" 10 vuoden kuluessa | Onni

SO -niminen “AI: n kummisetä”, Yoshua Bengio, vakuuttaa, että AI: n alueen läpi kulkevat teknologiset yritykset voisivat lähestyä omaa sukupuuttoa luomalla koneet, joilla on “omat säilyttämistavoitteet”.

Montrealin yliopiston professori Bengio, joka tunnetaan syvän oppimiseen liittyvästä perustyöstään, on varoittanut vuosia hyperintelligentin aiheuttamista uhista, mutta nopea kehitysrytmi on jatkunut hänen varoituksistaan ​​huolimatta. Viimeisen kuuden kuukauden aikana Openai, Anthrope, Elon Muskin Xai ja Gemini ovat käynnistäneet uusia malleja tai päivityksiä yrittäessään voittaa AI: n kilpailua. OpenAI: n toimitusjohtaja Sam Altman ennusti jopa, että AI voittaisi ihmisen älykkyyden vuosikymmenen lopun ajan, kun taas muut teknologiset johtajat ovat sanoneet, että päivä voisi jopa saapua ennen.

Bengio toteaa kuitenkin, että tämä nopea kehitys on mahdollinen uhka.

“Jos rakennamme meitä älykkäämpiä koneita ja joilla on omat säilytystavoitteensa, se on vaarallista. Se on kuin meidät älykkäämpiä ihmiskunnan kilpailijan luominen”, Bengio kertoi The Wall Street Journalille.

Koska he ovat koulutettuja ihmisen kieleen ja käyttäytymiseen, nämä edistyneet mallit voivat vakuuttaa ja jopa manipuloida ihmisiä saavuttamaan tavoitteensa. AI -mallien tavoitteet eivät kuitenkaan välttämättä aina ole yhdenmukaisia ​​ihmisen tavoitteiden kanssa, Bengio sanoi.

“Viimeaikaiset kokeet osoittavat, että tietyissä olosuhteissa AI: llä ei ole muuta vaihtoehtoa kuin sen säilyttämisen välillä, mikä tarkoittaa heille annettavia tavoitteita ja tehdä jotain, joka aiheuttaa ihmisen kuoleman, voisi valita ihmisen kuoleman heidän tavoitteidensa säilyttämiseksi”, hän sanoi.

Soita AI: n turvallisuuteen

Useat viime vuosien esimerkit osoittavat, että AI voi vakuuttaa ihmiset uskomaan, että epätoivoinen, jopa ne, joilla ei ole mielisairautta. Toisaalta on joitain todisteita siitä, että AI voi myös olla vakuuttunut käyttämällä ihmisille vakuuttamistekniikoita, antamaan vastauksia, jotka yleensä kielletään antamasta.

Bengion kannalta kaikki tämä lisää todisteita siitä, että riippumattomien kolmansien osapuolten on analysoitava tarkemmin AI -yritysten turvallisuusmenetelmiä. Bengio julkaisi kesäkuussa myös voittoa tavoittelemattoman Lawzeron, jolla oli 30 miljoonaa dollaria varoja “ei -ageenisen” AI: n luomiseksi, joka voi auttaa takaamaan muiden suurten teknologisten yritysten luomien järjestelmien turvallisuus.

Muutoin Bengio ennustaa, että voimme alkaa nähdä AI -mallien tärkeitä riskejä viidestä kymmeneen vuoteen, mutta varoitti, että ihmisten tulisi valmistautua, jos nämä riskit syntyvät ennen odotettua.

“Mitä tapahtuu katastrofaalisille tapahtumille, kuten sukupuuttoon, ja vielä vähemmän radikaaleja tapahtumia, jotka ovat edelleen katastrofaalisia, kuten demokratioidemme tuhoaminen, ovat, että ne ovat niin huonoja, että vaikka se olisi vain yhden prosentin mahdollisuus, että se voi tapahtua, se ei ole hyväksyttävää”, hän sanoi.

Fortune’s Global Form palaa 26. -27. -27. 2025 Riadissa. Toimitusjohtaja ja globaalit johtajat tapaavat dynaamisen tapahtuman ja vain kutsun, joka muovaa liiketoiminnan tulevaisuutta. Pyydä kutsu.

Check out our other content

Check out other tags:

Suosituimmat artikkelit