Pular para o conteúdo

Chatbot de IA da Microsoft cria imagens violentas e problemáticas, diz ex-funcionário

Copilot Designer é a mesma ferramenta usada para criar deepnudes da Taylor Swift mês passado.

Chatbot de IA da Microsoft cria imagens violentas e problemáticas, diz ex-funcionário

Um ex-engenheiro do setor de inteligência artificial da Microsoft, Shane Jones, relatou que o Copilot, chatbot de IA da empresa, é perigoso e gera imagens que violam as políticas da empresa.

RED-TEAM. Jones, que trabalhou por 6 anos na Microsoft, fez parte do “red-teming” do Copilot, um grupo que testa vulnerabilidades de produtos antes e depois do lançamento.

Durante os testes, ele observou que o Copilot Designer — gerador de imagens de IA — cria imagens problemáticas, como representações de monstros e demônios para termos relacionados a direitos reprodutivos e aborto, adolescentes com armas ou drogas, e conteúdo sexual e violento envolvendo mulheres.

💡
O Copilot Designer é a mesma ferramenta que foi usada para criar deepnudes da Taylor Swift em fev.24. A Microsoft atualizou suas políticas de uso após todo o rebuliço.

AVISOU. Quando identificou o problema, Jones fez várias tentativas de abordá-lo internamente, sem sucesso.

Após receber um alerta do departamento jurídico da empresa por publicar uma carta aberta no LinkedIn sobre o caso, Jones decidiu envolver os parlamentares dos Estados Unidos. Ele enviou uma carta aos senadores e até se reuniu com o Comitê de Comércio, Ciência e Transporte do Senado americano.

Vale lembrar que a Microsoft se envolveu em toda uma polêmica quando o Copilot — então Bing —, assim que foi lançado, fez declarações controversas, incluindo ameaças de morte a um jornalista e afirmações de que seria uma IA consciente.

A repercussão negativa fez com que a big tech tirasse o chatbot do ar por alguns dias e depois “lobotomizasse” a IA para evitar que ela construísse uma personalidade ao interagir com usuários.

AGORA. Esta semana, Shane enviou outra carta à presidente da FTC, Lina Khan, e aos diretores da Microsoft, reiterando a preocupação com o problema. À imprensa americana, a entidade reguladora confirmou o recebimento da carta, mas não comentou o assunto.

INVESTIGAÇÕES. A FTC já está investigando os investimentos bilionários da Microsoft na OpenAI.

Na semana passada, a Microsoft anunciou uma investigação após o Copilot fornecer respostas consideradas bizarras, perturbadoras e, em alguns casos, prejudiciais aos usuários.

Via CNBC (em inglês)

Sofia Schurig

Sofia Schurig

Repórter com experiência na cobertura de direitos humanos, segurança de menores e extremismo online. Estudante da UFBA, começou como estagiária no Núcleo, passando a ser repórter em 2024.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Sofia Schurig

Ver tudo