Un grupo de expertos alertan en la Eurocámara de la necesidad de medidas más allá de la autorregulación, que no sirve para que niños y adolescentes se desconecten de la pantalla ¿Cómo se detiene el tsunami del enganche de las redes entre los más jóvenes?

“Llevas 60 minutos en nuestra red, deberías hacer un descanso”. “Es importante irse a dormir”. “Es ya de noche. Desconecta un rato”. Estos son mensajes dirigidos a niños y adolescentes que aparecen en forma de “pop up” en distintas redes sociales para que tomen la decisión de volver al mundo real durante un rato. Pero la realidad es que una parte de ellos no puede, están enganchados, un problema que se está expandiendo silenciosamente y generando un problema grave que lleva a aislamiento, depresión, ansiedad… ¿Ocultan las plataformas un modelo de negocio que se basa principalmente en la adicción de los menores?

Distintos expertos en redes y adicciones han alertado esta semana en el Parlamento Europeo de que, más allá del control de los contenidos dañinos, son necesarias medidas drásticas por parte de los legisladores sobre un negocio que se basa en mantener a los usuarios pegados a la red y que diseña el algoritmo para cumplir ese fin, aunque se trate de niños incluso muy pequeños. La necesidad de recibir cada vez más dopamina a través del reconocimiento de los “me gusta” o interacciones, y la sensación de que siempre te estás perdiendo algo interesante, crean un cóctel perfecto de adicción.

Según los expertos, la autorregulación y la llamada a la responsabilidad de los jóvenes o padres no son suficientes. Toda la responsabilidad no puede recaer únicamente en familias y educadores. Ocurrió en el pasado con el alcohol y con el tabaco. Frente a ellos, Meta, TikTok y YouTube niegan que su modelo de negocio se basa en la adicción y aseguran que ya hacen lo suficiente contra los supuestos riesgos, señalando con el dedo a los padres.

El seminario, organizado por la vicepresidenta de la comisión de Libertades Civiles, Justicia e Interior, Maite Pagazaurtundua, y Renew Europe, ha servido para lanzar preguntas claves que necesitan respuestas urgentes, y para dejar en evidencia que las grandes empresas saben lo que provocan, pero no quieren admitir que sea un problema. Los expertos señalan un camino ya recorrido que puede ser útil: el del tabaco. ¿Por qué no proteger a los niños de esta nueva adicción con la misma dureza?

Desde la Comisión de Libertades Civiles, Justicia e Interior, Pagaza está trabajando sobre la capacidad adictiva de ciertos productos tecnológicos y de la inteligencia artificial especialmente en los menores, para abrir los ojos tanto a las empresas como a los reguladores ante la necesidad de tomar medidas eficaces. Como parte de esta labor, Pagaza participó en 2022 en una misión a Dublín, Irlanda, donde tienen su sede europea varios gigantes tecnológicos, para investigar sobre protección de datos y privacidad.

La evidencia de los expertos

El panel de expertos que participó en el seminario lo formaron Carlos Torrecilla, jefe de Economía Digital en el Centro Europeo sobre Transparencia de Algoritmos; Oriol Esculíes, experto de Proyecto Hombre en tecnologías y adicción; y Liesbeth Allein, experta en procesamiento y ‘fake news’. Con sus aportaciones quedó en evidencia que la adicción es consecuencia del diseño de las redes, que necesitan multiplicar el tiempo en pantalla para engordar el negocio. Si existe un problema social, se deben poner soluciones.

Carlos Torrecilla (Jefe de Economía Digital en el Centro Europeo sobre Transparencia de Algoritmos)

“Trabajamos para entender cómo los sistemas algorítmicos impactan en los niños. Estos sistemas pueden estar diseñados para buscar el enganche a una plataforma, para maximizar nuestro tiempo en la pantalla, generando conductas adictivas. Por eso hablamos de la importancia de la transparencia en los algoritmos. Queremos entender estos sistemas y generar metodologías que sitúen a los niños en el centro, para protegerlos. Si el modelo de negocio se basa en permanecer en la plataforma, los sistemas van a promover comportamientos adictivos”.

Oriol Esculíes (Experto de Proyecto Hombre en tecnologías y adicción)

“Muchas personas no pueden por sí mismas enfrentar este tsunami. Necesitamos una estrategia de prevención especialmente para grupos vulnerables como los niños. Si la UE puede liderar y enfrentar el cambio climático con directivas, reglamentaciones y fondos, ¿por qué no este problema? ¿Por qué no seguir una política como la del tabaco?  Además, el uso excesivo de las redes o los videojuegos no se puede contrarrestar sin ofrecer una alternativa, pero el cine, los deportes, comprar un libro… puede ser muy caro. ¿No podemos invertir en una alternativa factible?”

Liesbeth Allein (Experta en procesamiento y ‘fake news’)

“Si las redes sociales están diseñadas con elementos adictivos, si sabemos cuáles son y sabemos que se pueden eliminar del diseño, ¿por qué no imponer controles para que ese diseño no lleve a una adicción y no tengamos que centrarnos en la concienciación y en la educación como solución?”.

La denuncia

El segundo panel dio la palabra a tres gigantes del sector, Meta, YouTube y TikTok, representados por Nicole Lopez (responsable de Política de Jóvenes en Meta), David Wheeldon (director de Asuntos Gubernamentales y Política Pública de YouTube) y Jade Nester (directora de Política Pública para Europa de TikTok). Los tres expusieron las herramientas de autocontrol que ponen a disposición de sus usuarios y defendieron las experiencias positivas que provocan las redes sociales.

Frente a su mensaje, Pagaza les planteó una batería de preguntas sobre su responsabilidad en el carácter potencialmente adictivo de sus productos, “porque la adicción no es una cuestión relativa sino algo objetivo”.

“Les pregunto a los tres sobre la detección del uso excesivo por parte de los menores del tiempo nocturno. Supongo que ustedes tienen la información y nosotros necesitamos datos. ¿Cuántos menores detectan que no siguen sus recomendaciones de ‘vete a dormir que son las tres de la madrugada’? Tienen instrumentos de medición necesarios para saberlo. ¿Cuándo nos darán los datos? Y si hay menores adictos que pueden ser detectados, ¿pueden aplicar una herramienta de desactivación para estos casos? Si hay un porcentaje de menores que son adictos, hay una responsabilidad de las empresas que proveen servicios y pueden medir”.

Nicole Lopez (Meta) 

“Es información confidencial. Podría haber oportunidades de compartir los análisis, no sé cómo, podemos verlo y dar la información cuando la tengamos. Pero creo que se parte del principio de que hay adicción y yo creo que no es necesariamente así, no hay relación de causa y efecto en las redes sociales que causen adicción, depende de cada individuo y de muchos factores. Creo que requiere más investigación. Pero quiero que quede claro que las empresas no somos naíf, sabemos que hay problemas y hemos hecho cambios muy significativos de 2017 a hoy”.

David Wheeldon (YouTube) 

“No evitamos nuestra responsabilidad de identificar los usuarios menores de 13 años y los que tienen de 13 a 17, lo hacemos para que su experiencia sea adecuada y que nuestras herramientas para ellos también sean adecuadas, con recordatorios de que tomen un descanso. Pero también hay una responsabilidad de los padres, a los que damos instrumentos para que tomen decisiones”.

Jade Nester, TikTok 

“Bloqueamos las notificaciones nocturnas para menores de 13 años a las 21 horas y para menores de 16, a partir de las 22 horas. Tenemos recordatorios sobre la importancia de irse dormir en formato TikTok, en un modo más divertido, porque es importante cómo se restringe el uso. En todo caso, el sistema no impide el acceso. Los padres pueden restringir el tiempo, les damos la herramienta”.