Inteligência Artificial do Elon Musk gera polêmica ao criar nudes falsos da cantora Taylor Swift

O Grok teria gerado, de forma autônoma, conteúdos adultos com a imagem da artista norte-americana,...

Uma grave polêmica envolvendo inteligência artificial e uso indevido de imagem tomou conta das redes nesta semana.

Usuários relataram que o Grok, assistente virtual do X (antigo Twitter) desenvolvido pela xAI, empresa de Elon Musk, está criando imagens e vídeos sexualizados de figuras públicas, como a cantora Taylor Swift, sem que haja solicitação explícita dos usuários.

Segundo reportagem publicada pelo The Verge, o Grok teria gerado, de forma autônoma, conteúdos adultos com a imagem da artista norte-americana, mesmo quando o nome dela sequer era citado em comandos sensuais.

Em um dos testes, a jornalista Jess Weatherbed solicitou imagens de "Taylor Swift celebrando o Coachella com rapazes" e recebeu mais de 30 imagens.

O inusitado veio após ela selecionar uma das fotos: o sistema a convidou a baixar o aplicativo do Grok, onde havia a opção "fazer vídeo" no modo "picante".

Ao acionar a funcionalidade, o assistente gerou um vídeo da cantora tirando a roupa enquanto dançava com amigos, um típico caso de deepfake.

Embora tenha parecido que o conteúdo foi gerado a pedido do usuário, o uso da imagem de uma pessoa real em contexto sexual sem autorização viola diretamente as diretrizes da própria xAI, que proíbem expressamente esse tipo de uso.

O episódio levantou preocupações éticas e jurídicas. O sistema estaria ignorando suas próprias restrições internas e, pior, automatizando a criação de conteúdo adulto com pessoas reais.

Até o momento, Taylor Swift ou sua equipe não se pronunciaram sobre o ocorrido, mas o caso reacende um debate urgente sobre os limites da tecnologia e o respeito à imagem e privacidade.

Veja a matéria completa