A Microsoft publicou nesta semana o sexto Relatório de Transparência do Xbox, cobrindo o período entre 1º de janeiro e 31 de dezembro de 2025. O documento detalha como a empresa atuou na moderação de conteúdo na plataforma ao longo do ano, com foco em segurança e prevenção de comportamentos nocivos.
O destaque do relatório aparece na seção “Sharing our Safety Data”, onde o Xbox afirma ter moderado 14,8 bilhões de conteúdos de forma proativa em 2025.
368 milhões de conteúdos foram classificados como nocivos ou em violação de regras
Segundo o relatório, 2,5% do total moderado proativamente foi identificado como conteúdo prejudicial ou em violação das políticas da plataforma. Isso equivale a cerca de 368 milhões de itens.
A Microsoft explica que esse trabalho ocorre antes mesmo de o conteúdo chegar aos jogadores, com sistemas que fazem varreduras em diferentes formatos.
“Para reduzir o risco de danos e impedir que nossos jogadores sejam expostos a conteúdo inadequado, escaneamos proativamente para identificar e remover conteúdo indesejado antes que ele impacte os jogadores.”
O Xbox diz que aplica essas verificações em textos, nomes de usuário, imagens e outros conteúdos gerados pelos usuários, com o objetivo de evitar comportamentos nocivos, respeitar direitos e manter privacidade.
Abuso da plataforma e palavrões lideram os casos de violação
Entre as categorias mais frequentes detectadas pelo Xbox em 2025, o relatório destaca:
- 150 milhões por abuso da plataforma e serviços
- 62 milhões por linguagem vulgar e palavrões
- 51 milhões por nudez e pornografia
- 38 milhões por bullying e assédio
- 28 milhões por conduta de ódio
- 14 milhões por bens e serviços regulados
- 13 milhões por violência gráfica e gore
- 7 milhões por exposição de informações pessoais
A empresa reforça que boa parte desse conteúdo foi removida antes de chegar ao público, já que se trata de moderação proativa.

Xbox afirma que IA ajudou a aumentar a detecção de conteúdo nocivo
A Microsoft também atribui esse avanço ao uso combinado de ferramentas internas com inteligência artificial.
“A expansão das capacidades de IA, combinada com nossas ferramentas proativas existentes, nos permitiu aumentar e melhorar a detecção de conteúdo prejudicial antes mesmo que ele chegue aos jogadores.”
Jogadores enviaram 39 milhões de denúncias manuais em 2025
Além da moderação automática, o relatório mostra que o Xbox recebeu 39 milhões de denúncias feitas por jogadores no ano passado. Desse total, 3,7 milhões resultaram em restrições aplicadas a conteúdos ou contas.
Os principais motivos foram:
- Spam: 1,7 milhão
- Linguagem vulgar e palavrões: 555 mil
- Vírus: 412 mil
- Bullying e assédio: 371 mil
- Nudez e pornografia: 270 mil
- Conduta de ódio: 225 mil
- Abuso da plataforma e serviços: 141 mil
No total, cerca de 14 milhões de conteúdos foram processados manualmente, enquanto o restante foi resolvido por sistemas automatizados.
Xbox cita medidas de proteção e processo de apelação
A Microsoft reforça que aposta em automação, mas diz manter salvaguardas para evitar erros e garantir revisões quando necessário.
“Acreditamos que automação e soluções com IA, combinadas com expertise humana, desempenham papéis cruciais e complementares.”
O relatório também confirma que o Xbox teve 332 mil apelações únicas contra punições em 2025. Dessas, 26% foram aceitas, enquanto 74% foram mantidas após análise.
Microsoft reportou casos às autoridades e enviou alertas de crise
Para encerrar, o documento menciona que a empresa enviou 1.254 relatórios ao National Center for Missing and Exploited Children (NCMEC), conforme exigido por lei nos Estados Unidos.
Além disso, foram enviados 10.051 alertas para jogadores via Crisis Text Line ou serviços internacionais equivalentes, em situações consideradas de risco.
Aproveite para conferir a nossa Lojinha Virtual, com dicas de TVs, Controles, Headsets, e produtos para você deixar seu cantinho Gamer do jeito que quiser.


















