Habbo utiliza un sistema mixto de moderación:

Moderadores humanos: Gestionan reportes, revisan sanciones y actúan directamente en el juego.
Moderación automática: Este trabajo lo realiza Two Hat Security, una empresa especializada en inteligencia artificial para moderación de comunidades online.

¿Quién es Two Hat?

Two Hat es la empresa creadora de Community Sift, un filtro inteligente usado por muchas plataformas online. Su función es detectar:

Lenguaje ofensivo
Grooming y contenido inapropiado
Amenazas o bullying
Spam y flood

Desde hace años, Habbo decidió confiar parte de su moderación a este sistema automatizado, principalmente para proteger a los jugadores más jóvenes. Puedes ver el artículo de un estudio de caso redactado por TwoHat en 2021 con citas del ex-Vicepresidente de Adquisición de Usuarios y Monetización de Sulake, Giorgo Paizanis.

¿Qué problemas se detectaron?

Según el comunicado oficial publicado en la web de Habbo, se identificaron varios fallos:

Sanciones injustas: Algunos usuarios fueron sancionados sin motivo claro o por errores del filtro.
Retrasos en la gestión de reportes: El sistema no estaba actuando con la rapidez esperada.
Filtro desajustado: Palabras inofensivas censuradas, mientras que otras inapropiadas se filtraban mal.
Estos problemas han generado un fuerte malestar en la comunidad, que desde hace tiempo reclama cambios en la moderación.

¿Qué cambios vienen?

Habbo anunció que ya está trabajando en varios ajustes:

Mejora en el sistema de Two Hat: Ajustarán el filtro automático para que sea más preciso.
Refuerzo del equipo de moderación humana: Se esperan nuevas contrataciones o mejoras en el equipo.
Transparencia y comunicación: Prometen informar mejor a los usuarios sobre las sanciones y su funcionamiento.

¿Qué dice la comunidad?

En redes y foros, los usuarios piden:

Un filtro más justo y adaptado al contexto del lenguaje.
Moderadores más activos y presentes, sobre todo en eventos públicos.
Explicaciones claras cuando se aplique una sanción.

🧠 Opinión del autor

Creo que la moderación es necesaria, pero debe ser:

✔️ Justa
✔️ Eficiente
✔️ Transparente


La colaboración con Two Hat puede ser positiva, pero es evidente que el sistema necesita ajustes. La inteligencia artificial no siempre interpreta bien el lenguaje o el contexto, y eso provoca situaciones injustas.

Espero que estos cambios traigan mejoras visibles para todos los jugadores.


🖋 ¿Quieres compartir tu experiencia?

¿Has sido sancionado recientemente sin motivo? ¿Crees que el sistema de moderación debería cambiar?

Déjanos tu comentario y cuéntanos tu caso. En Habtium seguiremos atentos a las próximas actualizaciones sobre este tema.
Autores
Publicidad

Navidad 2025

Colecci-Matic

Año Nuevo 2025

Equipo administrativo

Regreso de la Furni-Matic

Habbo Embajadores

Builders at Work

Publicidad