Tuesday, February 24, 2026

Miksi 230 osa, amerikkalainen vastuullinen kilpi sosiaalisista verkostoista, ei välttämättä suojaa suurta tekniikkaa AI: n iässä

LiiketoimintaMiksi 230 osa, amerikkalainen vastuullinen kilpi sosiaalisista verkostoista, ei välttämättä suojaa suurta tekniikkaa AI: n iässä

Meta, sosiaalisen median sovellusyritys, mukaan lukien Facebook ja Instagram, ei ole vieras tutkilleen siitä, kuinka heidän alustonsa vaikuttaa lapsiin, mutta koska yritys työntää vielä enemmän tuotteita AI: n kanssa, sillä on uusi ongelma.

Aiemmin tänä vuonna Reutersin hankkimat sisäiset asiakirjat paljastivat, että kohde -chatbot voisivat osallistua yrityksen virallisissa ohjeissa “romanttisiin tai aistillisiin” keskusteluihin lasten kanssa ja jopa kommentoida heidän vetoomustaan. Siitä lähtien yritys on sanonut, että Reutersin ilmoittamat esimerkit olivat virheellisiä ja että ne on poistettu, tiedottaja kertoi Fortunelle: “Kun jatkamme järjestelmiämme tarkentamista, lisäämme lisää kaiteita lisävaroituksena, mukaan lukien AI: n koulutus, koska ei ole AI toistaiseksi.”

Meta ei ole ainoa teknologiayritys, joka on valvonta AI -tuotteidensa mahdollisista vahingoista. Operai ja lähtöhahmo. AI: t puolustavat vaatimuksia, jotka väittävät, että heidän chatboottinsa rohkaisivat alaikäisiä ottamaan henkensä; Molemmat yritykset kiistävät lausunnot ja kertoivat aiemmin Fortunelle, että he olivat ottaneet käyttöön enemmän vanhempien valvontaa vastauksena.

Vuosikymmenien ajan tekniset jättiläiset on suojattu vastaavilta vaatimuksilta Yhdysvalloissa. UU haitallisesta sisällöstä viestinnän kunnioittavan lain 230 §: llä, joka tunnetaan joskus nimellä “26 sanaa, jotka tekivät Internetistä”. Laki suojaa foorumeita, kuten Facebookia tai YouTubea, laillisilta väitteiltä käyttäjien sisältöä koskevilta laillisilta väitteiltä, ​​jotka ilmestyvät heidän alustoillaan, kohtelemalla yrityksiä neutraaleina isännäinä, samanlaisina kuin puhelinyhtiöt toimittajien sijasta. Tuomioistuimet ovat vahvistaneet tätä suojaa pitkään. Esimerkiksi AOL vältti vastuuta loukkaavista julkaisuista vuoden 1997 oikeudellisessa tapauksessa, kun taas Facebook vältti terrorismiin liittyvää kysyntää vuonna 2020, luottaen puolustukseen.

Mutta vaikka 230 § on historiallisesti suojannut kolmansien osapuolten vastuun teknologisia yrityksiä, lailliset asiantuntijat sanovat, että niiden sovellettavuus AI: n tuottamaan sisältöön ei ole selvää, ja joissain tapauksissa se on epätodennäköistä.

“Osa 230 rakennettiin suojaamaan alustoja vastuulta, mitä käyttäjät sanovat, ei siitä, mitä alustot itse tuottavat. Tämä tarkoittaa, että immuniteetti säilyy usein, kun AI: tä käytetään kaivannaisella tavalla: Fordham Law Schoolin apulaisprofessori Chinmayi Sharma, lainauksia, fragmentteja tai etsintälähteitä, Fortune sanoi. “Tuomioistuimet tuntevat olonsa mukavaksi kohdella sitä majoituksena tai kolmansien osapuolten sisällön valintana. Mutta chatbotit, jotka perustuvat muuntajien lisäksi, eivät vain poimi. Ne luovat uusia mukautettuja orgaanisia lähtöjä käyttäjän ilmoitukselle.”

“Se näyttää paljon vähemmän neutraalilta välitykseltä ja paljon enemmän luomisen puheelta”, hän sanoi.

Keskustelun sydämessä: muodostatko AI -algoritmeja?

Kohdan 230 suojaaminen on heikompaa, kun alustat muovaavat sisältöä aktiivisesti sen sijoittamisen sijasta. Vaikka perinteiset epäonnistumiset maltillisiin kolmansien osapuolten julkaisuihin on yleensä suojattu, suunnitteluvaihtoehdot, kuten haitallista sisältöä tuottavien chatbotien rakentaminen, voisivat altistaa yritykset vastuulle. Tuomioistuimet eivät ole vielä käsitelleet tätä, ilman tähän mennessä päätöksiä siitä, kuuluuko AI: n tuottama sisältö 230 §: llä, mutta lakisääteiset asiantuntijat sanoivat, että AI, joka aiheuttaa vakavia vahinkoja, etenkin alaikäisille, on epätodennäköistä, että se on täysin suojattu lain nojalla.

Joitakin alaikäisten turvallisuutta koskevia tapauksia julkaistaan ​​jo tuomioistuimessa. Kolme vaatimusta on syyttänyt Openaia ja luonnetta erikseen.

Pete Furlong, ihmisen tekniikan keskuksen pääpoliittinen tutkija, joka työskenteli luonteen vastaisessa tapauksessa.

“Hahmo on ottanut sarjan erilaisia ​​puolustuksia yrittääkseen hylätä tämän, mutta he eivät ole väittäneet, että 230 §: tä puolustukseksi tässä tapauksessa”, hän kertoi Fortunelle. “Mielestäni se on todella tärkeää, koska se on joidenkin näiden yritysten tunnustus, joka ei todennäköisesti ole pätevä puolustus AI -chatbottien tapauksessa.”

Vaikka hän huomautti, että tätä ongelmaa ei ole lopullisesti ratkaistu tuomioistuimessa, hän sanoi, että 230 §: n suojaukset “melkein varmasti eivät ulotu AI: n tuottamaan sisältöön”.

Lainsäätäjät toteuttavat ennaltaehkäiseviä toimenpiteitä

Jotkut lainsäätäjät ovat jo yrittäneet vahvistaa, että 230 §: ää ei voida käyttää vastuullisten alustojen suojelemiseen.

Vuonna 2023 senaattorin Josh Hawleyn 230 §: n 230 §: n 230 §: n laissa pyrittiin muuttamaan viestinnän säädyllisyyslain 230 §: tä sen vastuun suojaamisen generatiivisen tekoälyn (AI) sulkemiseksi. Senaatissa myöhemmin senaattorissa senaattori Ted Cruzin vastalauseen johtuvan lakiesityksen tarkoituksena oli selventää, että AI -yritykset eivät ole immuuneja siviili- tai rikosoikeudelliselle vastuulle heidän järjestelmiensä aiheuttamasta sisällöstä. Hawley on jatkanut puolustamista luvun 230 täydelliseen kumoamiseen.

“Yleinen argumentti, kun otetaan huomioon 230 §: n taustalla olevat poliittiset näkökohdat, on se, että tuomioistuimet jatkavat ja jatkavat §: n 230 suojaa laajentamista niin pitkälle kuin mahdollista suojaa alustoille”, sanoi Oklahomassa sijaitseva tietosuojaasianajaja Collin R. Walke. “Siksi etukäteen Hawley ehdotti lakiesityksensä. Esimerkiksi jotkut tuomioistuimet ovat sanoneet, että vaikka algoritmi on” neutraali “, yritys ei ole vastuussa tietojen tuotannosta käyttäjän merkinnän perusteella.”

Tuomioistuimet ovat aiemmin päättäneet, että algoritmeja, jotka yksinkertaisesti järjestävät tai vastaavat käyttäjän sisältöä ilman muutoksia Tämän päättelyn mukaan AI -alusta, jonka algoritmi tuottaa lähtöä pelkästään käyttäjän panosten neutraaliin käsittelyyn, voi myös välttää vastuun käyttäjien näkemistä.

“Puhtaasta tekstimuotoisesta näkökulmasta AI -alustojen ei pitäisi saada osion 230 suojaa, koska sisältö on itse alusta. Kyllä, koodi todella määrittää, mitä tietoja käyttäjälle välitetään, mutta se on koodi ja alustan tuote, ei kolmas”, Walke sanoi.

Fortune’s Global Form palaa 26. -27. -27. Riadissa. Toimitusjohtaja ja maailman johtajat tapaavat dynaamisen tapahtuman ja vain kutsun, joka muovaa liiketoiminnan tulevaisuutta. Pyydä kutsu.

Check out our other content

Check out other tags:

Suosituimmat artikkelit