Thursday, February 12, 2026

Edullisuuskriisi aiheuttaa ennennäkemättömiä hinnanalennuksia kiinteistömarkkinoilla, sanoo Realtor.com | Onni

Asuntojen kohtuuhintakriisi pakottaa rakentajat tekemään jotain, jota...

Bitcoin saattaa jo olla tulossa kryptotalveen, tutkijat varoittavat

Bitcoinin äskettäinen romahdus on saanut kauppiaat tuijottamaan...

REI myy 100 dollarin eristettyä hupparia vain 50 dollarilla

TheStreet pyrkii esittelemään vain parhaat tuotteet ja...

OpenAI palkkaa 550 000 dollarin palkalla “päällikön hoitotyön johtajan” lieventämään tekoälyn vaaroja, joista toimitusjohtaja Sam Altman varoittaa olevan “stressi” | Onni

LiiketoimintaOpenAI palkkaa 550 000 dollarin palkalla "päällikön hoitotyön johtajan" lieventämään tekoälyn vaaroja, joista toimitusjohtaja Sam Altman varoittaa olevan "stressi" | Onni

OpenAI etsii uutta työntekijää auttamaan tekoälyn kasvavien vaarojen torjunnassa, ja teknologiayritys on valmis käyttämään yli puoli miljoonaa dollaria paikan täyttämiseen.

OpenAI palkkaa “valmiuspäällikön” vähentämään teknologiaan liittyviä haittoja, kuten käyttäjien mielenterveyttä ja kyberturvallisuutta, toimitusjohtaja Sam Altman kirjoitti X-viestissä lauantaina. Tehtävä maksaa 555 000 dollaria vuodessa plus oman pääoman työpaikkailmoituksen mukaan.

“Tämä on stressaavaa työtä ja sinut heitetään syvään päähän melkein välittömästi”, Altman sanoi.

OpenAI pyrkii palkkaamaan tietoturvajohtajan, kun yritykset ovat yhä huolissaan tekoälyn riskeistä toiminnalle ja maineelle. Taloustieto- ja analytiikkayhtiö AlphaSense teki marraskuun analyysin arvopaperi- ja pörssikomitealle vuosittaisista toimituksista, ja sen mukaan vuoden 11 ensimmäisen kuukauden aikana 418 yritystä, joiden arvo oli vähintään miljardi dollaria, viittasi tekoälyn riskitekijöihin liittyvään maineeseen. Näihin mainetta uhkaaviin riskeihin kuuluvat tekoälytietojoukot, jotka näyttävät puolueellisia tietoja tai vaarantavat turvallisuuden. Raportit tekoälyn aiheuttamista mainevaurioista ovat analyysin mukaan lisääntyneet 46 prosenttia vuodesta 2024.

“Mallit kehittyvät nopeasti ja pystyvät nyt tekemään monia upeita asioita, mutta ne alkavat myös asettaa todellisia haasteita”, Altman sanoi sosiaalisessa mediassa.

“Jos haluat auttaa maailmaa selvittämään, kuinka kyberturvallisuuden puolustajat varustaa huippuominaisuuksilla ja varmistaa, että hyökkääjät eivät voi käyttää niitä vahingon aiheuttamiseen, ihannetapauksessa tekemällä kaikista järjestelmistä turvallisempia, ja samalla tavalla, kuinka voimme vapauttaa biologisia ominaisuuksia ja jopa saada luottamusta käynnissä olevien järjestelmien turvallisuuteen, jotka voivat parantaa itseään, harkitse hakemista”, hän lisäsi.

OpenAI:n entinen valmiuspäällikkö Aleksander Madry siirrettiin viime vuonna tekoälyn päättelyyn liittyvään rooliin, ja tekoälyn tietoturva on osa tehtävää.

OpenAI:n pyrkimykset puuttua tekoälyn vaaroihin

Vuonna 2015 voittoa tavoittelemattomaksi organisaatioksi perustettu OpenAI, jonka tarkoituksena on käyttää tekoälyä ihmiskunnan parantamiseen ja hyödyttämiseen, on joidenkin entisten johtajiensa silmissä kamppaillut priorisoidakseen sitoutumistaan ​​turvallisen teknologian kehittämiseen. Yrityksen entinen varatoimitusjohtaja Dario Amodei yhdessä sisarensa Daniela Amodein ja useiden muiden tutkijoiden kanssa jätti OpenAI:n vuonna 2020, osittain sen vuoksi, että yritys piti kaupallista menestystä turvallisuuden edelle. Amodei perusti Anthropicin seuraavana vuonna.

OpenAI on joutunut tänä vuonna useisiin laittomiin kuolemantapauksiin, joissa väitetään, että ChatGPT rohkaisi käyttäjien harhaan ja väitti, että keskustelut botin kanssa liittyivät joidenkin käyttäjien itsemurhiin. New York Timesin marraskuussa julkaistussa tutkimuksessa löydettiin lähes 50 tapausta, joissa ChatGPT:n käyttäjät kärsivät mielenterveyskriisistä chattaillessaan botin kanssa.

OpenAI sanoi elokuussa, että sen suojausominaisuudet voivat “heikentyä” käyttäjien ja ChatGPT:n välisten pitkien keskustelujen jälkeen, mutta yritys on tehnyt muutoksia parantaakseen malliensa vuorovaikutusta käyttäjien kanssa. Se perusti aiemmin tänä vuonna kahdeksan hengen neuvoston neuvomaan yhtiötä turvatoimissa käyttäjien hyvinvoinnin tukemiseksi ja päivitti ChatGPT:n reagoimaan herkemmin arkaluontoisissa keskusteluissa ja lisäämään pääsyä kriisipuhelinnumeroihin. Aiemmin tässä kuussa yhtiö ilmoitti apurahoista tekoälyn ja mielenterveyden risteyskohtaa koskevan tutkimuksen rahoittamiseksi.

Teknologiayhtiö myönsi myös tarvitsevansa parempia turvatoimia ja sanoi blogikirjoituksessaan tässä kuussa, että jotkut sen tulevista malleista voivat aiheuttaa “korkean” kyberturvallisuusriskin tekoälyn kehittyessä nopeasti. Yhtiö toteuttaa toimenpiteitä, kuten koulutusmalleja, jotta kyberturvallisuutta vaarantaviin pyyntöihin ei vastata, ja valvontajärjestelmien parantamista näiden riskien vähentämiseksi.

“Meillä on vankka perusta kasvavan kyvyn mittaamiseen”, Altman kirjoitti lauantaina. “Mutta olemme astumassa maailmaan, jossa tarvitsemme monipuolisempaa ymmärrystä ja mittaamista siitä, kuinka näitä ominaisuuksia voidaan käyttää väärin ja kuinka voimme rajoittaa näitä haittoja sekä tuotteissamme että maailmassa tavalla, joka antaa meille mahdollisuuden nauttia valtavista eduista.”

Check out our other content

Check out other tags:

Suosituimmat artikkelit