Xbox publicó su tercer informe sobre transparencia. Este reporte comparte datos y perspectivas que detallan los esfuerzos que se han tomado para crear experiencias más seguras, incluyendo la combinando la importancia de supervisión humana con las capacidades evolutivas de la inteligencia artificial que son la base del trabajo de seguridad hasta el día de hoy.
Para Xbox, la prevención de la toxicidad antes de que alcance a los jugadores es un componente fundamental de sus esfuerzos por mantener una plataforma segura e inclusiva para todos. Según se detalla en el informe, el 86% (17.09 millones) de nuestras intervenciones durante este período se llevaron a cabo gracias a las actividades de moderación proactiva de Xbox.
- Puntos clave de este reporte, que cubre de enero a junio de 2023:
- Destacando el uso responsable de IA para prevenir toxicidad. Incluyendo Community Sift, nuestra plataforma de moderación de contenido impulsada por IA y conocimientos humanos que clasifica y filtra billones de interacciones humanas por año, así como Turing Bletchley v3, el modelo multilingüe que escanea imágenes generadas por los usuarios para asegurar que el contenido apropiado está siendo mostrado.
- Nuevos conocimientos sobre el volumen de contenido bloqueado. Para medir de mejor manera su éxito, Xbox ha incluido un base datos llamada Toxicidad Evitada. En el último periodo, más de 4.7M de piezas de contenido fueron bloqueadas antes de que llegaran a jugadores, incluyen un aumento de 135k (+39% respecto al último periodo) en imágenes gracias a las inversiones para utilizar Turing Bletchley v3.
- Énfasis en abordar el acoso. Xbox trabaja de manera activa para identificar y abordar cualquier actitud abusiva, incluyendo discurso de odio, bullying y acoso. Con este objetivo en mente, Xbox hizo mejoras en los procesos internos para aumentar los esfuerzos proactivos al abordar 84k medidas proactivas de acoso/intimidación (+95 % con respecto al último período).
- Entender el comportamiento del jugador después del aplicativo. Xbox siempre toma la oportunidad de aprender más para saber cómo tener un mejor entendimiento de los Estándares de la Comunidad con jugadores. Para ese fin, el equipo analiza cómo se comportan los jugadores después de recibir el aplicativo. Las primeras conclusiones indican que la mayoría de los jugadores no viola los Estándares de la Comunidad después de recibir un aplicativo e interactúan positivamente con la comunidad.
Por favor encuentra el anuncio en el post de Xbox Wire en Español aquí, donde destaca las medidas de seguridad de Xbox tales como función de denuncia por voz y el sistema de medidas disciplinarias basado en strikes. El post también detalla las acciones tomadas alrededor del mundo para que los jugadores puedan tener experiencias más seguras, incluyendo Minecraft y la asociación con GamerSafer para curar la Lista Oficial del Servidor de Minecraft; y el lanzamiento de Xbox Gaming Safety Toolkits para Japón y Singapur.
El Reporte de Transparencia complete está aquí. Contáctanos si tienes alguna duda.