Wednesday, March 11, 2026

Prinssi Harry, Richard Branson, Steve Bannon ja tekoälyn kummiseät pyytävät tekoälylaboratorioita lopettamaan “superälyn” etsimisen ja varoittavat, että tekniikka voi ylittää ihmisen hallinnan | Onni

LiiketoimintaPrinssi Harry, Richard Branson, Steve Bannon ja tekoälyn kummiseät pyytävät tekoälylaboratorioita lopettamaan "superälyn" etsimisen ja varoittavat, että tekniikka voi ylittää ihmisen hallinnan | Onni

Uusi avoin kirje, jonka ovat allekirjoittaneet useat tekoälytutkijat, julkkikset, päättäjät ja uskonnolliset johtajat, vaatii “superälyn” (hypoteettisen tekoälyteknologian, joka voi ylittää koko ihmiskunnan älykkyyden) kehittämisen kieltämistä, kunnes tekniikka on luotettavasti turvallinen ja hallittavissa.

Kirjeen merkittävimpiä allekirjoittajia ovat tekoälyn edelläkävijä ja Nobel-palkittu Geoffrey Hinton, muut tekoälyn huippuammattilaiset, kuten Yoshua Bengio ja Stuart Russell, sekä yritysjohtajat, kuten Virginin perustaja Richard Branson ja Applen perustaja Steve Wozniak. Sen allekirjoittivat myös julkkikset, mukaan lukien näyttelijä Joseph Gordon-Levitt, joka äskettäin ilmaisi huolensa Metan tekoälytuotteista, will.i.am, sekä prinssi Harry ja Meghan, Sussexin herttua ja herttuatar. Yli 1 000 muun allekirjoittajan listalla esiintyvät niinkin erilaiset kansallisen turvallisuuden ja poliittiset hahmot kuin Trumpin liittolainen ja strategi Steve Bannon sekä George W. Bushin ja Barack Obaman johtaman yhteisen esikuntapäälliköiden puheenjohtaja Mike Mullen.

Uudessa avoimen kirjeen yhteydessä tehdyssä kyselyssä, jonka on kirjoittanut ja jakanut voittoa tavoittelematon Future of Life Institute, kävi ilmi, että yleisö hyväksyi yleisesti vaatimuksen supervoimaisen tekoälyteknologian kehittämisen keskeyttämisestä.

Yhdysvalloissa tehdyn tutkimuksen mukaan vain 5 % amerikkalaisista aikuisista kannattaa edistyneen tekoälyn säätelemättömän kehityksen nykyistä status quoa, kun taas 64 % oli samaa mieltä siitä, että superälyä ei pitäisi kehittää ennen kuin se on todistetusti turvallista ja hallittavissa. Tutkimus osoitti, että 73 prosenttia haluaa vahvaa sääntelyä edistyneelle tekoälylle.

“95% amerikkalaisista ei halua kilpajuoksua superälykkyyttä vastaan, ja asiantuntijat haluavat kieltää sen”, Future of Life -johtaja Max Tegmark sanoi lausunnossaan.

Superäly määritellään laajasti tekoälyn tyypiksi, joka pystyy ylittämään koko ihmiskunnan useimmissa kognitiivisissa tehtävissä. Tällä hetkellä ei ole yksimielisyyttä siitä, milloin superälykkyys saavutetaan, ja asiantuntijoiden ehdottamat aikataulut ovat spekulatiivisia. Jotkut aggressiivisemmat arviot ovat sanoneet, että superäly voitaisiin saavuttaa 2020-luvun lopulla, kun taas konservatiivisemmat näkemykset työntävät sitä paljon pidemmälle tai kyseenalaistavat nykyisen teknologian kyvyn saavuttaa se.

Useat johtavat tekoälylaboratoriot, mukaan lukien Meta, Google DeepMind ja OpenAI, pyrkivät aktiivisesti tämän tason edistyneeseen tekoälyyn. Kirjeessä pyydetään näitä johtavia tekoälylaboratorioita lopettamaan näiden ominaisuuksien käyttäminen, kunnes on “laaja tieteellinen yksimielisyys siitä, että se tehdään turvallisella ja hallittavalla tavalla ja vahva yleisön hyväksyntä”.

“Rajatekoiset tekoälyjärjestelmät voisivat ylittää useimmat ihmiset useimmissa kognitiivisissa tehtävissä vain muutamassa vuodessa”, Yoshua Bengio, Turing-palkittu tietotekniikan tutkija, jota yhdessä Hintonin kanssa pidetään yhtenä tekoälyn “kummiseistä”, sanoi lausunnossaan. “Jotta voisimme siirtyä turvallisesti kohti superälyä, meidän on määritettävä tieteellisesti, kuinka suunnitella tekoälyjärjestelmiä, jotka eivät pohjimmiltaan kykene vahingoittamaan ihmisiä, joko vääristymisen tai haitallisen käytön vuoksi. Meidän on myös varmistettava, että yleisöllä on paljon vahvempi ääni päätöksissä, jotka muokkaavat kollektiivista tulevaisuuttamme”, hän sanoi.

Allekirjoittajat väittävät, että superälykkyyden tavoittelu aiheuttaa vakavan taloudellisen syrjäytymisen ja vallan menetyksen riskin sekä uhkan kansalliselle turvallisuudelle ja kansalaisvapauksille. Kirjeessä syytetään teknologiayrityksiä tämän mahdollisesti vaarallisen teknologian käyttöönotosta ilman turvaesteitä, valvontaa ja laajaa yleisön suostumusta.

“Hyödyntämään sitä, mitä tekoälyllä on ihmiskunnalle, ei yksinkertaisesti tarvitse tavoitella superälyn tuntematonta ja erittäin riskialtista tavoitetta, joka on aivan liian kaukana. Määritelmän mukaan tämä johtaisi voimaan, jota emme voi ymmärtää tai hallita”, näyttelijä Stephen Fry sanoi lausunnossaan.

Check out our other content

Check out other tags:

Suosituimmat artikkelit