O X (antigo Twitter) confirmou que bloqueou pesquisas com “Taylor Swift” na rede social após deepfakes pornográficos da artista circularem na plataforma na última semana. Visitantes do site notaram, no sábado (27), que buscas com o nome da artista retornavam apenas uma mensagem de erro.
Para quem tem pressa:
- O X (antigo Twitter) bloqueou pesquisas com o nome “Taylor Swift” após a circulação de deepfakes pornográficos da artista na plataforma. A rede social informou que o bloqueio é uma medida temporária de segurança;
- A resposta do X ao problema tem enfrentado críticas por sua lentidão em conter a disseminação de imagens sexualmente explícitas não consensuais. Após a viralização dessas imagens, os fãs de Swift mobilizaram-se contra sua propagação;
- Em comunicado, o X enfatizou sua política de tolerância zero para postagens de nudez não consensual (NCN) e afirmou que suas equipes trabalhavam para remover as imagens e tomar medidas contra as contas responsáveis;
- A origem das imagens foi rastreada até um grupo do Telegram, conhecido por criar deepfakes pornográficos não consensuais. Em resposta ao incidente, o CEO da Microsoft, Satya Nadella, destacou a importância da responsabilidade das empresas em torno da tecnologia.
Em declaração ao Wall Street Journal, na noite de sábado, Joe Benarroch, chefe de operações comerciais da X, disse: “Esta é uma ação temporária e feita com abundância de cautela enquanto priorizamos a segurança nesta questão.”
Leia mais:
- ‘Clone’ de Taylor Swift promete panelas de graça em novo golpe
- O que é Deep Voice e como se proteger de golpes com voz clonada
- O que é e como funciona o golpe do QR Code?
Deepfakes de Taylor Swift
O manejo do problema pelo X tem sido criticado por ser lento para conter a disseminação de imagens sexualmente explícitas não consensuais. Após as imagens viralizarem, na quarta-feira (24), os fãs de Swift se mobilizaram contra sua disseminação, conforme mostrado pela NBC News.
Muitas das contas foram suspensas, mas não antes das postagens terem sido vistas, em alguns casos, milhões de vezes. O site The Verge publicou, na quinta-feira (25), que uma postagem foi vista mais de 45 milhões de vezes, por exemplo.
Em declaração postada em sua plataforma naquele dia, o X disse:
Postar nudez não consensual (NCN) é estritamente proibido no X e temos uma política de tolerância zero em relação a tal conteúdo. Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por postá-las. Estamos monitorando de perto a situação para garantir que quaisquer violações adicionais sejam imediatamente abordadas e o conteúdo removido. Estamos comprometidos em manter um ambiente seguro e respeitoso para todos os usuários.
No entanto, ainda dava para encontrar as imagens nos dias seguintes. O 404Media rastreou a provável origem das imagens para um grupo do Telegram conhecido por criar imagens geradas por IA não consensuais de mulheres usando ferramentas gratuitas.
Em entrevista para a NBC News na sexta-feira (26), o CEO da Microsoft, Satya Nadella, disse que o problema destaca qual é a responsabilidade da empresa, e “todas as salvaguardas que precisamos colocar em torno da tecnologia para que haja mais conteúdo seguro sendo produzido.” Ele continuou dizendo que “há muito a ser (e sendo) feito lá”, mas observou que a empresa precisa “agir rapidamente”.
O post Twitter barra pesquisas sobre Taylor Swift ‘por segurança’ apareceu primeiro em Olhar Digital.