Na semana passada, uma série de nudes falsos da cantora Taylor Swift gerados com inteligência artificial viralizaram nas redes sociais. Após denúncias apontarem uma brecha utilizada para a criação das imagens no Designer, da Microsoft, a empresa anunciou a correção da falha e atualizou suas políticas sobre o uso de IA.
Entenda:
- Recentemente, imagens pornográficas da cantora Taylor Swift criadas com IA viralizaram na internet;
- Uma investigação do 404 Media identificou uma brecha no sistema de segurança da ferramenta, permitindo que os usuários gerassem nudes falsos de várias celebridades;
- As imagens foram criadas por membros de grupos do 4chan e Telegram dedicados à criação de deepfakes pornográficos;
- Após uma investigação interna, a Microsoft comunicou a correção da brecha e reforçou sua política de uso de IA.
Conforme divulgado pelo 404 Media, usuários do 4chan e Telegram se aproveitaram de uma brecha na segurança da ferramenta para gerar alguns dos deepfakes de Swift e outras celebridades. Ainda de acordo com a reportagem original, a Microsoft anunciou a correção da brecha e revelou que uma investigação interna está em andamento.
Leia mais:
- Deepfakes de voz: como a IA engana até 73% das pessoas
- Como identificar fotos “falsas” criadas por IA
- Perfis fakes: como a Inteligência Artificial cria “pessoas” nas redes sociais
Reforço das medidas de segurança
A Microsoft enviou um pronunciamento ao 404 Media: “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que contrarie nossas políticas podem resultar na perda de acesso ao serviço.”
A empresa ainda disse que não foi possível comprovar se as imagens foram realmente criadas no Designer, mas reforçou a atuação de “grandes equipes no desenvolvimento de grades de proteção e outros sistemas de segurança alinhados aos nossos princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o uso indevido do sistema e ajudar a criar um ambiente mais seguro para os usuários.”
O post Microsoft corrige brecha em IA que gerou imagens pornográficas de Taylor Swift apareceu primeiro em Olhar Digital.