Suosittu Viestiä

Toimituksen Valinta - 2024

Älä usko ketään: Mikä uhkaa hermoverkkoa, tekee porno

Dmitri Kurkin

Fake porno videoitajossa elokuvan "Wonder Woman" Gal Gadot tähti, joka väitetään sekoittavan hänen veljensä kanssa, joka ilmestyi tällä viikolla verkossa, osoittautui ei vain väärennöksi, vaan tekoälyn tuottamaan väärennökseen.

Videon tekijä, nimettömän redditin käyttäjä, jolla on lempinimi deepfakes, vahvisti varapuhemiehen haastattelussa, että hän käytti hermoverkkoa, jotta "ottaisi valokuvia" Gadotin kasvot porno näyttelijän kehoon. Yleisesti ottaen väärennös on havaittavissa, ja syvähakut eivät aio tehdä rahaa siihen - hän halusi vain tarkistaa, kuinka helppoa olisi tehdä se AI: n avulla. Ja hänellä on huonoja uutisia meille: se oli hyvin helppoa tehdä fake pornoa kotona.

Yleensä ongelma ei ole itse pornofeaksissa: kuvien ja videoiden kysyntä, jossa julkkikset kuten näyttelijät ja näyttelijät ovat seksiä, oli ja tulee olemaan fetishistien ja tunteiden faneilla. Ulkoisesta samankaltaisuudesta pornoteollisuudessa olevien tähtien kanssa tehdään koko uraa - tämä ilmiö johti jopa erinomaisen keltaisen lehdistön otsikkoon: "Gordon Ramsay kääpiö löytyy kuolleesta mäyräreiässä".

Mutta jos ennen tuotantoa tarvitaan aikaa, resursseja ja osaamista, hermoverkko, joka on koulutettu hitsaamaan kasvoja kuvaan, yksinkertaistaa tehtävää suuresti. Robotit kiinni, ei mies, ja robotit saavat älykkäämpiä ajoittain, mikä tarkoittaa, että väärennökset näyttävät yhä luotettavammilta. Deepfakes-käyttäjä selvitti, että hän keräsi AI-ohjelmistonsa avoimen lähdekoodin kirjastojen improvisoiduista elementeistä ja otti valokuvia ja videoita julkisissa viemäriin ja hosting-palveluihin, kuten YouTubeen. Yksinkertaisesti sanottuna kaikki työkalut pornofeikovin tuottamiseksi olivat hänen nenänsä alla, ei vain hänen kanssaan, vaan miljoonien ihmisten joukossa ympäri maailmaa.

Eikä tämä tarkkaan ottaen edes uutisia. Vuonna 2003 Oregonin yliopiston terveys- ja tiedeyhteisön asiantuntijat varoittivat, että äänen väärinkäytöksiä on "helppo tehdä ja vaikeasti määritettävissä". Ennuste tuli toteutumaan vuoteen 2017 mennessä, ja neuraaliverkkojen tuottamia väärennettyjä äänitallenteita oli hyvin vaikea erottaa todellisista. Äänen jälkeen video vedettiin ylös. Washingtonin yliopiston henkilökunnan kehitys synkronoi henkilön kasvojen ilmentymiä hänen puheensa kanssa: esimerkiksi videossa, jossa on esimerkiksi Barack Obama, on vain ääni, kuva syntyy ohjelmasta. Yhdistä toinen toisiinsa - ja nyt on valmiita väärennettyjä videoita, joissa tunnettu liberaali poliitikko "tunnustaa" myötätuntonsa Hitlerille.

Kuvitellaan, että väärinkäytökset, joita keinotekoinen äly voi aiheuttaa - Microsoftin keskustelupotit, jotka Twitterin trollit ovat muuttuneet rasistisiksi alle päivässä, näyttävät melko kummalta. Porno-teknologiaa ei tietenkään uhkaa ensisijaisesti Gal Gadot, Taylor Swift tai Jennifer Lawrence. He ovat riittävän varmoja palkkaamaan väärennettyä IT-asiantuntijoita ja joukko asianajajia, jotka haastavat ketään, joka yrittää käyttää näitä väärennöksiä henkilökohtaiseen hyötyyn.

Ei, yksinkertaiset kuolevaiset tulevat uusien vaarattomien algoritmien uhreiksi. Digitaalisia väärennöksiä voidaan käyttää pornografiaan, verkkoratkaisuun, verkkoihin kohdistuvaan häirintään, kiristykseen ja manipulointiin, jotka ovat helposti oivaltavia ja jotka eivät erityisesti seuraa kehittyneen teknologian alan uutisia ("Tyttäresi on videotettu, siirrä rahaa välittömästi, muuten kaikki nähdään"). Emme välttämättä puhu pornosta: väärennökset voidaan käynnistää myös verkostoon poliittisen propagandan ja vihaan yllyttämisen puolesta.

"Mutta tämä on hirveä!" Kyllä, hirveä, ja se ei ole syvälle tekevä koodaaja, joka on syyllinen. Kun hakkerit murtautuvat joskus pankkijärjestelmiin eivät varastaa rahaa, mutta jotta tietoverkkorakenneosasto osuu turva-aukkoihin, niin anonyymi AI-ohjelmoija keksi meidät vain tosiasian eteen: digitaalisten väärennösten aikakausi ei ole utopistinen kauhutarina "Musta peili" ja tuleva todellisuus. Hän ei ole vielä ymmärtänyt modernia etiikkaa (voidaanko pornofiilejä pitää muiden ihmisten yksityisyyden hyökkäyksenä?), Eikä voimassa olevassa laissa. Mutta hänen on elettävä jotenkin tulevina vuosina. Niinpä on tarpeen kehittää vasta-aine tällaista täytettä vastaan.

Collins-sanakirjoittajat nimittivät termi "fake news" vuoden 2017 ilmaisuksi, mikä korostaa, että keskivertokäyttäjä on riippuvainen napsauttamalla ja toistamaan sensational otsikot ilman, että se hukkaa aikaa tietojen aitouden tarkistamiseen. Samaan aikaan väärennetyt uutiset voivat vaikuttaa vaalien ja kansanäänestysten tuloksiin. Ja tämä on myös osa uutta todellisuutta, jossa olemme jo olemassa ja jossa meidän on opittava olemaan vähemmän kevytmielisiä.

Sosiaaliset verkostot ovat jo tehneet Internetistä lasiseinäisen talon, jossa miljoonat ihmiset voivat katsella elämääsi joka päivä - vaikka et halua sitä. Nyt on ilmeistä, että tässä talossa ei ole ovea: kuka tahansa voi yrittää hyökätä omaan tilaanne, käyttämällä AI: tä ruuvata kasvosi pornoroliin tai elokuvaan "Sormusten Herra". Tietosuoja on kuollut, mutta ei ainoastaan ​​Big Brother on syyllistynyt tähän erityispalvelujen ja globaalien yritysten muodossa, vaan myös itseämme.

Digitaalisten väärennösten maailma on tulossa, mutta tämä ei ole syy paniikkiin, paranoiaan, Internetin käytön kieltämiseen tai vaatimuksiin kieltää hermoverkkoja. Tämä on syy ajatella verkkohygieniaa ja uutta etiikkaa, jossa se vahvistetaan kerran ja lopulta, että jonkun toisen kuvan käyttäminen digitaalisen väärennöksen luomiseksi on vila ja laitonta. Ajat, jolloin ihmiset ehdottomasti uskoivat kaiken, mitä he sanovat televisiossa (vaikka he sanoisivat, että "Lenin oli sieni"), ne haihtuvat. Samalla tavoin olemme vähitellen tottuneet uskomaan kaikkea, mitä on kirjoitettu Internetissä.

kansi:Warp-tietueet

Jätä Kommentti