Xbox, en su compromiso de brindar un ambiente de juego seguro e inclusivo, ha lanzado recientemente una serie de herramientas de inteligencia artificial (IA) para mejorar la seguridad de su comunidad. Estas nuevas soluciones, presentadas en su último Informe de Transparencia, buscan proteger a los usuarios de mensajes no deseados y otros comportamientos disruptivos, ampliando los esfuerzos de Xbox por mantener una experiencia positiva en su plataforma.
De enero a junio de 2024, la compañía introdujo dos herramientas basadas en IA para detectar y bloquear contenido inadecuado en mensajes de personas ajenas a la lista de amigos de los jugadores. Este enfoque multifacético de seguridad también incluye el análisis de spam y publicidad, permitiendo que los jugadores disfruten de una experiencia de juego auténtica y sin interrupciones.
Inteligencia artificial en acción: Xbox AutoMod y otras soluciones
Para reforzar la moderación de contenido, Xbox lanzó dos soluciones de IA: Xbox AutoMod, que filtra contenido reportado en un tiempo 88% más rápido que los métodos anteriores, y una herramienta de detección proactiva lanzada en julio, que evita la circulación de mensajes no deseados, como spam y publicidad. Estas herramientas permiten a los moderadores humanos centrarse en problemas más complejos, mientras que la IA gestiona contenido disruptivo, garantizando así una plataforma más limpia y segura.
El rol de los jugadores en la seguridad de Xbox
Los informes generados por los propios jugadores son fundamentales en el enfoque de seguridad de Xbox. Durante el primer semestre de 2024, Xbox detectó un aumento considerable en cuentas no auténticas que enviaban spam, impulsado en gran parte por los reportes de la comunidad. Los jugadores duplicaron sus informes a 2 millones para el contenido en mensajes de Buscando Grupo (LFG), lo cual ayudó significativamente a reducir la actividad maliciosa en la plataforma.
Seguridad en juegos y colaboraciones con Minecraft y Call of Duty
Además, Xbox ha expandido su estrategia de seguridad colaborando con otros títulos como Minecraft y Call of Duty. Mojang Studios, creador de Minecraft, implementó una función que recuerda a los jugadores las normas de conducta en el chat, y Call of Duty adoptó herramientas de IA para reducir comportamientos tóxicos y fomentar un entorno inclusivo en su comunidad. Estas iniciativas están logrando una disminución considerable en la toxicidad dentro de sus plataformas.
Xbox continúa así innovando en herramientas de IA y manteniendo una colaboración activa con la Tech Coalition para mejorar continuamente la experiencia de seguridad en la plataforma.
Recuerda que puedes encontrar más noticias de tecnología en nuestro sitio web, además, te invitamos a seguirnos en nuestras redes sociales: Facebook y Twitter (actualmente llamado X), incluido en Google News.