Pular para o conteúdo

Meta discute bullying em espaços virtuais, como metaverso e ambientes de IA

Entrevistados sobre o metaverso mostraram pouca preocupação com privacidade, mas urgência por regulação para proteger crianças contra bullying e assédio

Meta discute bullying em espaços virtuais, como metaverso e ambientes de IA

A Meta está realizando processos de consulta deliberativa com membros da sociedade civil em parceria com instituições acadêmicas sobre temas relacionados às suas novas tecnologias, como o metaverso e sistemas de inteligência artificial.

Os Fóruns de Comunidade foram mencionados pela primeira vez pela plataforma em nov.22, sendo descritos como uma nova ferramenta para auxiliar a empresa a tomar decisões que regem suas tecnologias.

AGORA. O primeiro Fórum da Comunidade Metaverso, em colaboração com o Laboratório de Democracia Deliberativa de Stanford, ocorreu em dez.22. Os resultados foram divulgados em jun.23, abordando questões de bullying e assédio na realidade virtual, especialmente em espaços privados no metaverso.

📊

A Meta selecionou 6.300 pessoas, em 32 países e 23 idiomas, para participar do processo, descrito pelos pesquisadores de Stanford como “um experimento inédito em deliberação global”.

Os participantes responderam a nove perguntas sobre conhecimento do metaverso, bullying, assédio e formas de detectar e responder a esses problemas. Além disso, a consulta também explorou a responsabilidade da Meta, como empresa, em relação às ações de terceiros nesses espaços virtuais.

Sintetizamos os principais resultados da consulta, que podem ser lidos em inglês aqui.

TEM MAIS. Em 22.jun, Nick Clegg, executivo da Meta e presidente do setor de Assuntos Globais, anunciou via um post no blog de comunidade que a Meta está preparando um Fórum da Comunidade sobre IAs generativas.

O objetivo é discutir os riscos, benefícios e a abordagem da plataforma em relação à tecnologia. A iniciativa busca envolver membros da sociedade civil em discussões abertas sobre o assunto.

Semanas após o anúncio do novo fórum, em 11 de julho, o executivo publicou um artigo no Financial Times defendendo a ideia de que os modelos de IA generativa deveriam ser de código aberto. Ele enfatiza que a inovação aberta, semelhante à infraestrutura da internet, pode trazer benefícios significativos.

SAIBA MAIS — O que Clegg fala sobre IA generativa

No artigo, Clegg também propõe quatro etapas para que empresas de tecnologia mitigarem os riscos associados à IA. Primeiro, segundo o executivo, elas devem ser transparentes sobre como seus sistemas funcionam. Em segundo lugar, a colaboração entre diversos setores deve ser incentivada. Terceiro, os sistemas de IA devem ser testados sob estresse para identificar falhas e consequências não intencionais. Por fim, as empresas devem compartilhar detalhes de seu trabalho para promover discussões, análises e desenvolvimento.

Via Wired, Meta Newsroom e Financial Times (todos em inglês)

Texto Sofia Schurig
Edição Alexandre Orrico

Sofia Schurig

Sofia Schurig

Repórter com experiência na cobertura de direitos humanos, segurança de menores e extremismo online. Estudante da UFBA, começou como estagiária no Núcleo, passando a ser repórter em 2024.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Sofia Schurig

Ver tudo