Teknologi

Det ender ikke med Taylor Swift: Sådan beskytter du dig mod AI Deepfakes og seksuel chikane

Алекс Рейн 24 Февраля, 2026
247continiousmusic

I sidste uge, seksuelt eksplicitte deepfake billeder af Taylor Swift angiveligt lavet ved hjælp af kunstig intelligens blev formidlet på tværs af sociale medier. Det var blot det seneste - og mest profilerede - eksempel på de voksende farer ved deepfakes og digital chikane.

Swift er ikke den første kvinde, det er sket for, og hun vil heller ikke være den sidste. Det er sikkert at sige, at næsten alle andre ofre for en pornografisk deepfake har færre ressourcer end en milliardær popstjerne med millioner af fans rundt om i verden, som er meget online og vidende om det. Men det faktum, at dette kan ske til selv Taylor Swift har bragt fornyet opmærksomhed på problemet og til et bredere publikum. Det er endda skudt i gang med føderal lovgivning for at bekæmpe misbruget, siger fortalere.

Tirsdag introducerede amerikanske senatorer bipartisan Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024 (DEFIANCE Act) for at imødegå og afskrække dyb falsk pornografi uden samtykke. Lovforslaget vil gøre det muligt for ofre for digital forfalskning - skabt ved brug af software, maskinlæring, kunstig intelligens eller enhver anden computergenereret eller teknologisk måde at fejlagtigt fremstå som autentiske - at sagsøge gerningsmændene civilt, hvilket giver dem mulighed for at søge retfærdighed for første gang.



Ofre for deepfake pornografi uden samtykke har ikke haft stor succes med at sagsøge folk, der skaber, distribuerer eller anmoder om deepfake pornografi, ifølge Omny Miranda Martone, der arbejdede med lovgivere om lovforslaget som grundlægger og administrerende direktør for Foreningen til forebyggelse af seksuel vold (SVPA) . Teknologien er stadig ret ny, og som med andre samfundsmæssige spørgsmål vedrørende teknologi, skal lovene indhente det. I mellemtiden er teknologien avanceret for at gøre det endnu nemmere for alle at lave AI-genererede deepfakes.

'Mængden af ​​seksuel vold mod dagligdags individer er steget i vejret.'

' Indtil for cirka to år siden . . . nogen skulle have en kraftig computer, de skulle vide meget om teknologi og kunne arbejde med et forvirrende system og potentielt endda bygge systemet selv. Og de havde brug for en masse billeder af offeret, for at det kunne se realistisk ud,« forklarer Martone. 'Men AI-teknologien har udviklet sig betydeligt, og det er på det punkt, hvor enhver kan skabe virkelig realistisk udseende, uoverensstemmende, dybfalsk pornografi ved hjælp af blot et eller to billeder. De behøver ikke at vide meget om teknologi, de kan bare gå ind på en app eller et websted på deres telefon eller computer og bare gøre det på få sekunder.'

Det er ufatteligt i dag, i betragtning af at i 2017, en ud af otte brugere af sociale medier rapporterede at være mål for pornografi uden samtykke, og en ud af 20 voksne på sociale medier havde været gerningsmænd, ifølge Cyber ​​Civil Rights Initiative .

I betragtning af disse teknologiske fremskridt - og det faktum, at 'enhver med internetadgang nemt kan skabe' det - 'er mængden af ​​seksuel vold mod dagligdags individer steget i vejret,' siger Martone. Berømtheder havde været det mest almindelige mål på grund af tilgængeligheden af ​​deres billeder. Men nu har [gerningsmændene] kun brug for et par billeder, som de kan få fra nogens LinkedIn eller sociale medier eller deres virksomheds hjemmeside, forklarer Martone.

Dette er uforholdsmæssigt skadeligt for kvinder, ifølge Margaret Mitchell, den tidligere co-leader af Googles Ethical Artificial Intelligence-team. 'Det er ekstremt krænkende, det har en ekstremt traumatisk psykologisk effekt på dig, hvis du er et offer for det. Det er også objektiverende, så det påvirker andre mennesker til at se dig gennem en seksuel linse i modsætning til en professionel linse. Så betyder det, at det kan påvirke mulighederne,« siger hun til 247CM.

'Kvinder kæmper allerede for at blive set som ledere, for at blive taget seriøst på arbejdspladsen. Når denne form for indhold flyder rundt, kan det påvirke, hvordan kvinder kan blive forfremmet, komme ind i flere lederstillinger,' fortsætter Mitchell, som nu er ledende etikforsker hos Hugging Face, en åben platform for AI-byggere. 'Det siver ind i så mange ting på en måde, som nogle gange kan være rigtig svær at spore, men som grundlæggende påvirker, hvordan du ser dig selv, hvordan du har det med dig selv, og hvordan andre mennesker behandler dig.'

I Swifts tilfælde stammer billederne fra 4 chan og en gruppe på Telegram, der bruges til at distribuere misbrugsbilleder af kvinder, rapporterede 404 Medier . Designer, en gratis Microsoft AI-generator, bruges ofte til at producere indhold uden samtykke, ifølge forretningen. Som svar på rapporteringen har Microsoft lukket et smuthul som gjorde det muligt for Designer at lave AI-genereret berømthedsporno.

Men i mellemtiden oversvømmede billederne hurtigt X, tidligere kendt som Twitter. I et usædvanligt eksempel på indholdsmoderering i Elon Musk-æraen indførte X en midlertidig blokering af en søgning på 'Taylor Swift', hvilket bremsede spredningen, men det var ikke i stand til at fjerne alle billederne, CBS News rapporteret . X's svar fulgte efter legioner af Swifties, der rapporterede indlæggene og krævede, at siden skulle fjerne dem. Det kom også efter, at indlæggene allerede var udbredt - man havde allerede nået 45 millioner visninger, 24.000 retweets og hundredtusindvis af likes og bogmærker på 17 timer, før den verificerede brugers konto blev suspenderet, ifølge Randen . Mandag den 29. januar var spærringen udløbet.

Selvom SVPA har arbejdet med Kongressen i et stykke tid - Martone siger, at de sendte et åbent brev til sidste år, hvor de opfordrede dem til at tage fat på spørgsmålet - forekommer det for Martone, at de ikke tog handling, før Taylor Swift-nyhederne blev virkelig store.

Selv hvis du føler, at ingen bekymrer sig om dine billeder, så bekymrer AI sig.

Alligevel er de fleste ofre for pornografi uden samtykke ikke højt profilerede. De fleste er kvinder, og mange har marginaliserede identiteter, uanset om det er deres race, etnicitet og/eller seksuelle orientering. SVPA har for eksempel arbejdet med en kvinde, der var universitetsstuderende og trænede i fitnesscenteret, da hun blev ramt af en mand, som hun takkede nej til. Et par uger senere trak et andet motionscenter kvinden til side for at fortælle hende, at den mand, hun afviste, havde lavet dybfalsk pornografi af hende - og havde vist andre medlemmer i gymnastiksalen og lagt det ud på Instagram, hvor hun var i stand til at få det fjernet. Martone siger, at de for nylig har fået lavet deepfake porno af dem på grund af deres arbejde med spørgsmålet.

Uden lovgivning er det svært at gribe ind. Fordi det problematiske indhold er anerkendt som falsk, betragtes det ikke som ærekrænkelse, tilføjer Martone.

Under alle omstændigheder bør vi som samfund alle arbejde på at forhindre, at indhold uden samtykke bliver lavet og delt, siger eksperter. Ideen om, at problemet vokser, og at det er umuligt at putte ånden tilbage i flasken, bør ikke fremme en følelse af uundgåelighed eller følelsesløshed.

For dem, der tror, ​​de aldrig ville finde sig selv i denne type situation, understreger Mitchell også, at teknologien har gjort det muligt at blive så almindeligt, at enhver kan blive berørt.

Som Mitchell forklarer det: 'Folk bør være opmærksomme på, at alt indhold, de lægger online, potentielt kan blive fejet op af privatpersoner eller af virksomheder for at blive brugt som en del af AI-træning. Så det er måske ikke, at nogle familiebilleder på Facebook er noget, som den brede offentlighed vil bekymre sig om. Men det er ikke spørgsmålet. Spørgsmålet er, om dette indhold vil blive opfanget af en massiv tech-virksomhed på en måde, der kan hjælpe med at fremme objektiveringen af ​​kvinder?'

I sidste ende er det teknologien, du skal være opmærksom på og på vagt over for. Selv hvis du føler, at ingen bekymrer sig om dine billeder, er kunstig intelligens ligeglad, siger Mitchell. 'AI-systemer kan stadig feje dem op, de kan stadig bruges til at misrepræsentere dig, og de kan stadig bruges i enhver form for hævnsituation, og enhver form for situation, hvor du har nogen, der vil være en ondsindet skuespiller på den måde, kan skade dig personligt.'

Sådan forebygges og bekæmpes Deepfakes uden samtykke

    Uddan dig selv, så du kan forstå, hvad der sker. Ved, at deling af personlige oplysninger online potentielt er deling af disse oplysninger med offentligheden. 'Der skal være en slags genforståelse eller genforståelse af, hvad det er at dele indhold online: hvornår det er passende at dele ting, og hvornår det ikke er det. Det handler også om, at forældre taler med deres børn om, hvorfor det ikke er okay at lave deepfake porno af deres klassekammerater, siger Mitchell. Støt journalistik. Det er vigtigt at kende den rolle, pressen spiller, for nogle gange er det ligesom den eneste modvægt til virkelig problematisk adfærd fra virksomheder eller problematisk adfærd, som virksomheder muliggør, forklarer Mitchell. 'For når der er dårlig presse, der påvirker deres aktier, så påvirker det, hvad aktionærerne tænker, det påvirker, hvad venturekapitalisterne tænker, og hvor mange penge de kan få. Sådan laver vi forandringer. Vi har journalister, der skriver om det. Det er virksomhederne opmærksomme på - det giver genlyd på hele markedet.' Vær en god digital tilskuer. Hvis nogen laver eller deler pornografi uden samtykke med dig - deepfake eller ej - så lad være med at se på det, engagere sig i det, dele det eller endda søge efter det online, fordi det vil træne algoritmerne til at give mere af det til flere mennesker, siger Martone. Lav en digital opgørelse over dit billede og dine oplysninger online. Sørg for, at du er proaktiv med at tjekke de websteder, hvor du poster billeder af dit ansigt eller din krop. Brug de tilgængelige sikkerhedsfunktioner på hvert websted eller hver app, inklusive alt så grundlæggende som at sikre, at kun personer, du kender, kan se dine billeder på Facebook. Hvis der sker noget, siger Martone, skal du straks rapportere til webstederne. SVPA har en guide til at fjerne indhold, du ikke ønsker fra websteder, samt en guide til forebyggelse af digital seksuel vold for indholdsskabere, men disse principper kan bruges af alle. Du kan også finde det nyttigt at gennemgå de omfattende ressourcer, der findes på Cyber ​​Civil Rights Initiative-webstedet, herunder deres Ofte stillede spørgsmål , Statens love , og forskningsresultater . Se efter værktøjer og apps, der ændrer eller beskytter billeder. Det er stadig et nyt område, men udviklere arbejder på teknologi til at beskytte og 'forgifte' billeder, der er lagt ud online, inklusive værktøjer som f.eks. Natskygge . Mitchell siger, at efterhånden som behovet vokser, vil der blive udviklet flere og bedre værktøjer til at bekæmpe disse problemer.