La DGOJ cierra la segunda jornada del Congreso reiterando la necesidad de equilibrar la innovación digital con la seguridad, y mantiene el discurso de que el Juego público es prácticamente “inocuo”

Confirmado: ni rastro de autorreflexión sobre Juego público en el I Congreso de Juego de la DGOJ

AZARplus

La segunda jornada del I Congreso Internacional de Juego, organizado por la DGOJ, ha incidido aún más en la visión del regulador de situar al jugador en el centro de la política pública, a través de tres mesas debate, sobre los “riesgos y características del Juego”, la Inteligencia Artificial y los videojuegos.

La primera mesa del segundo día del I Congreso Internacional de Juego, titulada “Características Estructurales de los Juegos y Riesgo”, pareció centrar el debate en lo “peligroso” que puede ser el Juego privado, a diferencia del Juego público… O así pareció con las afirmaciones del doctor en psicología José César Perales, quien afirmaba que “no todos los productos son iguales”, citando la evidencia que sitúa a las máquinas de Juego y los juegos de casino online a la cabeza en riesgo.

Según señalaba el psicólogo, el riesgo relativo de sufrir un problema de Juego es “15 veces mayor” en jugadores de máquinas de Juego que en el conjunto total. Guillermo Carrascal, Jefe de la Oficina Técnica de Inspección, complementó esta visión detallando cómo los proveedores de software emplean estrategias de gamificación, como la alta volatilidad, la inmediatez de la apuesta y los sofisticados efectos visuales y sonoros para explotar los estrechos márgenes de retorno.

Sin embargo, este fervor escrutador pareció detenerse bruscamente en la frontera del Sector público. El mismo rigor científico que desmanteló el diseño adictivo de las slots online, exoneró a las loterías tradicionales, al concluir que “básicamente no incrementan el riesgo por ellas mismas”. La ordenación de peligrosidad situó a las loterías tradicionales en último lugar en términos de riesgo relativo, pero no señalan nada de que los Rascas son los juegos preferidos por los más jóvenes, incluso menores, y que no cuentan con ningún tipo de control de acceso, pese a que la prevalencia de Juego es altísima entre los usuario de Juego en España.

El Congreso, al centrar su fuego en la arquitectura del riesgo digital parece eludir el riesgo social de la baja barrera de entrada que permite a jóvenes y menores acceder a productos de Juego en la calle, escudándose en la “baja peligrosidad” del producto. Lo curioso es que la Administración ha convertido la regulación del Juego en un asunto de salud pública, con poco más de 8.000 personas con trastorno por Juego en el país, pero se detiene a la hora de regular al Juego público, pese a que, según esa vara de medir, también debería entrar en el cupo, por “poco” riesgo que señalen en él… La defensa de la persona jugadora se muestra, así, peligrosamente incompleta.

Mesa II: Oportunidades y Riesgos de la Inteligencia Artificial en el Sector del Juego

La Inteligencia Artificial fue el tema de la segunda mesa, moderada por Justo Sancho, director de la división de Control de Juego Seguro. Sancho señaló que la IA, más allá de ser “fuerza bruta de cálculo“, tendrá un importante impacto social y en la cadena de valor de los servicios.

José Antonio López Moreno, profesor titular de la UCM, basó su exposición en un proyecto de investigación sobre IA e impulsividad, una variable que considera “un factor causal de la adicción“. La IA permite una “personalización de la evaluación haciendo esto más precisa y en menos tiempo”. Mediante pruebas digitales, su equipo observó que la adición de información subjetiva (como intuir el cansancio del jugador favorito) disparaba el monto apostado, demostrando que la racionalidad se perdía ante la percepción. Al medir el tiempo de reacción, la IA puede “casi intuir, podemos extrapolar como la persona piensa” a nivel de microsegundos, revelando espontaneidad o la necesidad de procesar más información.

López Moreno abordó los desafíos en el marco del Reglamento Europeo de IA. El primero es la transparencia algorítmica: el usuario tiene derecho a entender “cómo esa máquina decide y me expone a mí a ciertos juegos“. El segundo es el riesgo de manipulación, donde la IA podría aprovechar “microvulnerabilidades” como la impulsividad para ofrecer juegos que maximicen el beneficio. Sin embargo, estos riesgos se convierten en oportunidades, pues si la IA detecta impulsividad, esta puede ser una variable de ayuda para un seguimiento especial. La IA puede integrarse en los tres niveles de prevención: primaria (campañas universales), secundaria (alertas personalizadas para población de riesgo) y terciaria (reducción de secuelas y apoyo con herramientas como chatbots).

La doctora Almudena Ruiz, investigadora en IA y profesora de UNIR, centró su intervención en el papel crucial de los datos, “el oro de nuestro tiempo“. El rastro digital dejado por el jugador es rico (tiempos de interacción, transacciones, cuándo juega) y la IA tiene el poder de convertirlo en conocimiento que puede usarse tanto para proteger como para “explotar su vulnerabilidad“. La oportunidad más evidente para la investigadora es la detección temprana de Juego problemático, anticipándose al daño mediante la detección de patrones. Por ejemplo, un sistema podría detectar a un jugador que aumenta su ritmo de Juego durante tres noches seguidas y sugerirle automáticamente un descanso o un límite de depósito. Otra oportunidad es la personalización responsable de la experiencia, por ejemplo, detectando cuándo un jugador juega frustrado y ofreciendo pausas automáticas. Ruiz concluyó con la reflexión de que el riesgo no reside en la tecnología, sino en la decisión sobre cómo utilizarla.

Mesa III: Juego Social, Videojuegos y Loot Boxes

La mesa que cerraba el congreso, moderada por el director general Mikel Arana, abordó la frontera cada vez más difusa entre el entretenimiento digital y el Juego de azar, un tema que Arana confesó generó dudas iniciales sobre su inclusión, pero que finalmente se justificó por la necesidad de debatir fenómenos con impacto económico, social y tecnológico… Aunque sospechamos que la inminente regulación de las loot boxes también tuvo que ver algo…

Joaquín Manuel González Cabrera, investigador senior de UNIR, ofreció la perspectiva académica, distinguiendo su “fervorosa” creencia en la industria del videojuego de la práctica específica de las cajas de botín. Definió la caja de botín como un objeto virtual que ofrece contenidos aleatorios a cambio de dinero de curso legal y afirmó que esto es esencialmente “una apuesta” al compartir los mecanismos básicos del Juego de azar. González Cabrera presentó datos recientes de prevalencia: el 13,2% de los niños menores de edad en España reportó haber comprado cajas de botín en el último mes. Además, señaló que los compradores de loot boxes tienen casi cinco veces más riesgo de desarrollar un problema clínico con apuestas online que aquellos que nunca han comprado. El académico fue enfático al explicar que la conexión entre gaming y gambling no es directa, sino que está mediada totalmente por el uso problemático de las cajas de botín.

A continuación, Víctor Martínez, crítico de videojuegos, argumentó que la práctica de invertir dinero en un resultado desconocido funciona como una forma de game washing que “emborrona un poco la realidad de lo que se está haciendo“. Criticó la falta de alfabetización en videojuegos entre los padres, quienes, al proporcionar dinero para microtransacciones, tienen en mente títulos antiguos y desconocen la complejidad de los mecanismos actuales. Martínez advirtió que normalizar la relación entre el dinero y el Juego desde edades tempranas “anula nuestra capacidad para medir correctamente” el valor real del dinero, fomentando una sociedad más impulsiva.

Por su parte, Jordi Soler Cantalosella, director general de LVP/AMETIC, reconoció la “incomodidad” de la industria con la vinculación temática. Soler enfatizó el concepto de “corresponsabilidad”, argumentando que si un menor compra algo, es porque “alguien le ha dado este dinero“, haciendo a los padres o tutores “totalmente corresponsables” de la situación. Soler defendió el sistema PEGI (que clasifica contenidos por edad) como una herramienta útil que la industria utiliza y está comprometida a mejorar, aunque reconoció que su visibilidad y comprensión por parte de las familias pueden ser insuficientes.

Durante el debate posterior, se abordó la preocupación de la DGOJ respecto a los eventos de apuestas en esports (deportes electrónicos) debido al riesgo de amaños y la exposición de audiencias menores de edad. Soler compartió esta preocupación, explicando que la LVP utiliza mecanismos de autorregulación internacional a través de la entidad ESIC para vigilar y sancionar posibles amaños de partidos, asegurando que la industria busca activamente la colaboración para proteger el ecosistema.

La conclusión general de la mesa, según Arana, fue que regular este nuevo territorio requiere un equilibrio delicado: “proteger sin limitar la creatividad, educar sin censurar e innovar sin perder de vista los valores de seguridad y responsabilidad”.

Clausura oficial: Mikel Arana pide un compromiso ético global

El director general de Ordenación del Juego, Mikel Arana, clausuró el congreso con un discurso que recogió las conclusiones de las dos jornadas, enfatizando que este evento no es un punto final, sino “el inicio de una etapa” para transformar las conclusiones en acciones concretas.

Arana reiteró que el compromiso de la DGOJ es construir un entorno regulatorio sólido que sitúe a la persona jugadora en el centro de la política pública, ya que la actividad debe “servir al interés general y no al revés”. Destacó la conclusión inequívoca de la jornada inaugural: la regulación ya no es solo un asunto nacional.

El director general subrayó el hito que representa el mecanismo de detección de comportamientos de riesgo impulsado por la DGOJ, el cual se convertirá en un “referente global“. Este sistema permitirá que la prevención sea predictiva, automatizada y ética, anticipándose a los problemas antes de que se materialicen.

Arana resumió las ideas clave de las mesas de debate. Respecto a la regulación de producto, afirmó que la protección debe integrarse “en la arquitectura del producto, no solo en su supervisión posterior”. Sobre la IA, reconoció que puede ser una herramienta extraordinaria de prevención, pero genera “nuevos desafíos éticos si no se emplea con responsabilidad”. Respecto a los videojuegos y loot boxes, Arana concluyó que regular este nuevo territorio requiere un equilibrio delicado: “proteger sin limitar la creatividad, educar sin censurar e innovar sin perder de vista los valores de seguridad y responsabilidad”.

Finalmente, el director general hizo un llamamiento a la corresponsabilidad. La seguridad en el Juego exige un “ecosistema completo de protección y confianza” donde cada agente, público o privado, asuma su papel. La protección de los más vulnerables “no puede ser objeto de debate ideológico. Debe ser un acuerdo, un compromiso ético por todos los que todos compartamos”.

Dejar comentario

¡Por favor, introduce un comentario!
Por favor, introduce tu nombre

* Campos obligatorios
** Los comentarios deben ser moderados, en muy poco tiempo, serán validados