X har blokkert Taylor Swift-søk

Avatar photo
Publisert 28. januar 2024 | 18:03

Etter at et stort antall seksualiserte AI-genererte bilder av Taylor Swift (34) ble spredt det sosiale mediet X så platformen seg nødt til å ta grep.

Prøver man å søker på «Taylor Swift» eller «Taylor Swift AI» i søkefeltet, får man beskjed om at «Det har skjedd en feil. Prøv å laste inn på nytt».

Ifølge Joe Benarroch, en talsperson for X, er blokkeringen gjort «med stor varsomhet mens vi prioriterer sikkerhet rundt denne saken».

De seksualiserte bildene av artisten fikk ifølge NBC News over 27 millioner visninger på 19 timer før kontoen som hadde delt de ble suspendert.

X har tidligere uttalt at nakenbilder uten samtykke, også kjent som Non-Consensual Nudity (NCN), er forbudt på plattformen og at de har «nulltoleranse» for dette.

På ett av de falske bildene som er blitt delt kan man se en lettkledd Taylor Swift sammen med Donald Trump i en fengselscelle:

President Joe Bidens stab kommenterte saken på en pressekonferanse fredag:

– Dette er veldig urovekkende. Vi skal gjøre det vi kan for å takle dette problemet, sa president Joe Bidens pressesekretær Karine Jean-Pierre, og oppfordret Kongressen til å få på plass et lovverk.

mest lest