Pular para o conteúdo

Equipe de IA da Microsoft expõe dados sensíveis no GitHub

Os dados vazados continham mais de 30 mil mensagens internas da Microsoft, senhas, backups pessoais de dois funcionários e 38 terabytes de informações sensíveis.

Equipe de IA da Microsoft expõe dados sensíveis no GitHub

Pesquisadores da Microsoft em inteligência artificial acidentalmente expuseram informações confidenciais da empresa em repositórios públicos no GitHub, uma plataforma de compartilhamento de código-fonte.

O GitHub é de propriedade da Microsoft. Em março, alguém compartilhou partes do algoritmo do Twitter/X na plataforma, que foi intimada a revelar os dados pessoais desse usuário.

O QUÊ? Os dados incluíam mais de 30 mil mensagens de comunicação interna da Microsoft de centenas de funcionários, senhas e backups pessoais de dois funcionários da empresa, além de 38 terabytes de informações sensíveis.

COMO? A URL de acesso ao repositório com informações confidenciais, que ficou disponível desde 2020, estava mal configurada, permitindo um controle mais amplo do que o necessário. Isso possibilitava que alguém apagasse, trocasse ou adicionasse código malicioso, desde que soubesse onde procurar.

RESPOSTA. Após o vazamento ser relatado pela Wiz, uma startup de cibersegurança, a Microsoft afirmou que “nenhum dado de cliente foi exposto e nenhum outro serviço interno foi colocado em risco devido a esse problema”.

A empresa também ampliou sua equipe responsável por monitorar todas as alterações em código-fonte aberto público no GitHub, em busca de exposição de informações confidenciais.

Via Techcrunch (em inglês)

Texto Sofia Schurig
Edição Alexandre Orrico
Sofia Schurig

Sofia Schurig

Repórter com experiência na cobertura de direitos humanos, segurança de menores e extremismo online. Estudante da UFBA, começou como estagiária no Núcleo, passando a ser repórter em 2024.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Sofia Schurig

Ver tudo