Xbox añade inteligencia artificial para controlar las malas prácticas en videojuegos
08/11/2023 - Hace 1 año en InternacionalXbox añade inteligencia artificial para controlar las malas prácticas en videojuegos
Xbox ha intensificado sus esfuerzos en moderación a través del uso de sistemas automatizados y herramientas de inteligencia artificial para mejorar la identificación y revisión de contenido inapropiado en su plataforma.
Según el último informe de transparencia de la marca, el 87% de las acciones de moderación se activan automáticamente, gracias a tecnologías innovadoras que marcan el contenido para revisión sin necesidad de que los jugadores informen problemas específicos. Microsoft, la empresa detrás de Xbox, reconoce la importancia de mantener un entorno de juego seguro y divertido, comprometiéndose a mantenerse al tanto de los cambios en la industria que puedan afectar la experiencia de los jugadores.
Para fortalecer su moderación, Microsoft ha implementado dos herramientas clave en colaboración con la inteligencia artificial. La primera es Community Sift, desarrollada por TwoHat, una filial de Microsoft, que ha procesado más de 36 millones de informes de jugadores en 22 idiomas, permitiendo la evaluación de cuáles requieren la atención de un moderador humano.
A pesar de este sistema de filtrado, no ha habido un aumento significativo en las acciones de cumplimiento «reactivas» (en respuesta a informes de jugadores), posiblemente debido a un aumento en las acciones «proactivas» implementadas por Microsoft antes de que los jugadores informen un problema.
El informe también destaca la lucha de Xbox contra cuentas «no auténticas», incluyendo tramposos, spammers y perfiles que socavan la experiencia de juego. Microsoft ha eliminado 16,3 millones de estas cuentas en la primera mitad de 2023, un aumento del 276% con respecto al año anterior.
Además, se ha ampliado la definición de «contenido vulgar«, lo que ha llevado a un aumento en las acciones coercitivas contra este tipo de contenido. Sin embargo, la lucha contra este tipo de contenido aún es superada en número por otras violaciones, como malas palabras, acoso, contenido sexual para adultos y spam.
El informe subraya la importancia de las acciones proactivas en la moderación de contenidos, con más de 4,7 millones de contenidos tóxicos bloqueados antes de llegar a los jugadores, lo que representa un aumento del 39% en comparación con el período anterior. Se han implementado medidas proactivas contra el acoso e intimidación, con un aumento del 95% en las acciones realizadas en este ámbito, totalizando 84,000 acciones.
Además, se ha introducido la función de informes de voz, que permite a los jugadores capturar y denunciar el acoso por voz en el juego.
También te puede interesar:Bayer registra fuertes pérdidas en el tercer trimestre y anuncia despidos