Populære Indlæg

Redaktørens Valg - 2024

Tro ikke på nogen: Hvad truer det neurale netværk, der laver porno

Dmitry Kurkin

Falske pornovideoerhvor stjernen i filmen "Wonder Woman" Gal Gadot angiveligt havde sex med sin stepbrother, som dukkede op på nettet i denne uge, viste sig at være ikke bare en falsk, men en falsk genereret af kunstig intelligens.

Forfatteren af ​​videoen, en anonym bruger af reddit med kælenavnet deepfakes, i et interview med Vice, bekræftede at han brugte det neurale netværk for at "tage billederhoot" Gadots ansigt til porno skuespillerens krop. Den falske er generelt mærkbar, og dybfagene planlagde ikke at tjene penge på det - ifølge ham ville han bare kontrollere, hvor nemt det ville være at gøre det ved hjælp af AI. Og han har dårlige nyheder for os: det var meget nemt at lave falsk porno hjemme.

Problemet er generelt ikke i pornofeaks selv: efterspørgslen efter billeder og videoer, hvor berømtheder-lignende skuespillere og skuespillerinder har sex, var og vil være hos fetisjerne og fansne af fornemmelser. På den eksterne lighed med stjernerne i pornoindustrien bliver der lavet hele karriere - dette fænomen skabte endda en fremragende overskrift af den gule presse: "Gordon Ramsay dværg er fundet død i et badgerhul".

Men hvis der før tidsproduktionen var brug for tid, ressourcer og en vis færdighed, så et neuralt netværk, der er uddannet til at svejses ansigter til et billede, forenkler opgaven meget. Roboter holder sig ind, ikke en mand, og robotter bliver smartere fra tid til anden, hvilket betyder, at fakes vil se mere og mere pålideligt ud. Deepfakes-brugeren præciserede, at han hentede sin AI-software fra de improviserede elementer, der blev fundet i open source-biblioteker, og tog billeder og videoer i offentlige afløb og hosting som YouTube. Kort sagt, alle værktøjer til at generere pornofeikov lå under hans næse, ikke kun hos ham, men blandt millioner af mennesker rundt om i verden.

Og dette, strengt taget, ikke engang nyheder. Tilbage i 2003 advarede eksperter fra University of Oregon Health and Science, at lyd svindel er "let at gøre og svært at bestemme." I 2017 blev forudsigelsen rigtig, og der var falske stemmeoptagelser genereret af neurale netværk, som er meget vanskelige at skelne fra rigtige. Efter lyden blev videoen trukket op. Udviklingen af ​​personalet ved University of Washington synkroniserer ansigtsudtryk af en persons ansigt med sin tale: i videoklippet med Barack Obama, der er lagt ud for eksempel, er der kun lyd til stede, billedet genereres af programmet. Forbind den ene med den anden - og nu er der klare falske videoer, hvor en velkendt liberal politikeren "tilstår" hans sympati for Hitler.

Det kræver en smule fantasi at forestille sig, hvor mishandling sådan kunstig intelligens kan føre til - chatbots fra Microsoft, som trollene fra Twitter er blevet racistiske på mindre end en dag, vil virke som en smuk prank. Og selvfølgelig er Porno-teknologien ikke primært truet af Gal Gadot, Taylor Swift eller Jennifer Lawrence. De er tilstrækkeligt sikret til at ansætte en hær af it-specialister, som genkender en falsk og en flåde af advokater, der vil sagsøge enhver, der forsøger at bruge disse falskninger til personlig gevinst.

Nej, enkle dødelige bliver til ofre for nye harmløse algoritmer. Digitale fejl kan bruges til pornografi, cyberstalking, netop chikane, chikanering og manipulation af mennesker, der er let foreslåelige og ikke særlig følger nyheder fra avancerede teknologier. "Din datter blev videooptaget, overfør penge straks, ellers vil alt blive set"). Og vi taler ikke nødvendigvis om porno: Fakes kan også lanceres i netværket for politisk propaganda og incitement til had.

"Men det er monstrøst!" Ja, monstrøst, og det er ikke deepfakes-koderen, der skyldes. Som hackere bryder nogle gange ind i banksystemer ikke for at stjæle penge, men for at pege cyberforsvarsafdelingen i sikkerhedshuller, så det blev opdaget af anonyme AI-programmører, sætter vi os først og fremmest for en kendsgerning: æraen med digitale forfalskninger er ikke en anti-utopisk horrorhistorie "Black Mirror", og den kommende virkelighed. Hun er endnu ikke blevet forstået af moderne etik (kan pornofiler betragtes som en invasion af andre menneskers privatliv?), Heller ikke i gældende lov. Men det er i hende, at vi på en eller anden måde skal leve i de kommende år. Så det er nødvendigt at udvikle en modgift mod sådanne fyldstoffer.

Collins ordbog kuratorer kaldte udtrykket "falske nyheder" udtrykket af 2017, og understreger således, at den gennemsnitlige bruger er afhængig af clickbate og repost sensationelle overskrifter uden at spilde tid kontrol med ægtheden af ​​oplysningerne. I mellemtiden kan falske nyheder påvirke resultatet af valg og folkeafstemninger. Og det er også en del af den nye virkelighed, hvor vi allerede eksisterer, og hvor vi bliver nødt til at lære at være mindre fjollet.

Sociale netværk har allerede lavet internettet et glasvægget hus, hvor millioner af mennesker kan se dit liv hver dag - selv når man ikke vil have det. Nu er det indlysende, at der ikke er nogen dør i dette hus: alle kan forsøge at invadere dit personlige rum ved at bruge AI til at skrue dit ansigt på pornorolen eller filmen "Ringenes Herre." Fortrolighed er død, men ikke kun Big Brother er skyldig i dette i form af særlige tjenester og globale virksomheder, men også os selv.

Verden af ​​digitale fakes kommer, men dette er ikke en grund til panik, paranoia, afslag på at bruge internettet eller kravene til at forbyde neurale netværk. Dette er en grund til at tænke på netværkshygiejne og ny etik, hvor det vil blive løst en gang for alle at bruge en andens billede til at skabe en digital falsk er fjollet og ulovligt. De gange, hvor folk trods alt trods alt troede på tv'et (selvom de siger, at "Lenin var en svampe") falder væk. På samme måde bruger vi os gradvist til at tro på alt, hvad der er skrevet på internettet.

Cover:Warp-optegnelser

Efterlad Din Kommentar