Varios expertos en nuevas tecnologías y redes sociales han alertado este martes del riesgo sistémico de adicción que conlleva el modelo de negocio de estas empresas, ligado al tiempo de permanencia en pantalla, y han reclamado una acción global europea fuerte, con legislación y fondos, para cortar el problema de raíz, desde el propio diseño de los algoritmos. La eurodiputada de Cs Maite Pagazaurtundua junto al grupo Renew Europe han organizado este martes un seminario sobre las adicciones que están provocando las redes especialmente en niños y adolescentes, una jornada en la que también han participado representantes de Meta, TikTok y Yotube que han explicado las herramientas que desarrollan para lograr un uso adecuado de sus productos. Pagaza, que desde marzo del año pasado reclama a las plataformas tecnológicas más transparencia sobre sus algoritmos, ha subrayado que las adicciones son un problema real. “Ninguna empresa debe obviarlo. Y si no es de forma espontánea, debemos incentivar u obligar a que se corrijan esos riesgos masivos. No es una opción renunciar a nuestra responsabilidad política ante nuevas necesidades sociales”, ha advertido. La vicepresidenta de Valores y Transparencia de la Comisión, Vera Jourová, ha participado en el seminario y ha explicado que la UE es el primer continente que intenta crear un conjunto de reglas completo sobre estas tecnologías. Ha anunciado al respecto que el Ejecutivo comunitario va a empezar a trabajar en una propuesta sobre edad apropiada. “Sin embargo, no se trata sólo de normas: padres y centros escolares tienen una lista larga de deberes, muchos profesores están desesperados porque ven que los niños entran en espacios sin control. Tenemos que reforzar la educación, una alfabetización digital, entre otras cosas por un tema urgente de salud mental. Y en ello hay una gran responsabilidad de las empresas, responsabilidad que no se puede descargar solamente en padres y educadores”, ha subrayado. SOLUCIONES LEGALES, PERO NO SÓLO El eurodiputado liberal Dragos Tudorache ha presentado el primer panel de expertos. Ha advertido de que la sociedad está cerca de un punto de inflexión sobre las nuevas tecnologías gracias a la legislación que prepara la UE, reglas “para recuperar una relación más sana con el mundo digital”. “Pero las soluciones no sólo serán legales, sino que tiene que haber un esfuerzo colectivo para hacer frente a este fenómeno”, ha dicho. Carlos Torrecilla es jefe de Economía Digital en el Centro Europeo sobre Transparencia de Algoritmos, que entre otras funciones controla el impacto de estas plataformas en los grupos vulnerables, como niños y adolescentes. “Se trata de entender cómo los sistemas algorítmicos impactan en los niños. No todo es malo, hay oportunidades, pero también riesgos”, ha señalado. El experto ha explicado que los sistemas algorítmicos pueden estar diseñados para buscar el enganche a una plataforma, “para maximizar nuestro tiempo ante la pantalla, generando conductas adictivas”. “Conocer esto es clave, por eso hablamos de la importancia de la transparencia en los algoritmos. Queremos entender estos sistemas y generar metodologías que sitúen a los niños en el centro, para protegerlos”, ha dicho. Torrecilla ha defendido al respecto la importancia que va a tener a su juicio la Ley de Servicios Digitales, a punto de entrar en vigor. “Si el modelo de negocio se basa en permanecer en la plataforma, los sistemas van a promover comportamientos adictivos. La Ley de Servicios Digitales establece que las plataformas con más de 45 millones de usuarios tienen que identificar esos riesgos sistémicos, por ejemplo, el riesgo de adicción en los adolescentes. Y si no los identifican, las sanciones previstas son muy elevadas. Esperamos que esto actúe positivamente para mitigar los riesgos”, ha explicado. IMPUESTOS PARA PRODUCTOS NOCIVOS, COMO EL TABACO Oriol Esculíes, experto de Proyecto Hombre sobre tecnologías y adicciones, ha presentado distintas iniciativas de esta organización contra estos problemas, pero ha dejado claro que no es suficiente. Ha reclamado una gran estrategia de prevención para grupos vulnerables, sobre todo los menores, como una prioridad, con directivas, reglamentaciones y fondos. Y esa estrategia tiene que ser europea, ha dicho, porque los Gobiernos nacionales no evitan muchas veces el coste social y electoral de determinadas medidas ni la influencia de las empresas. “Por ejemplo, han sido muy efectivos los impuestos para reducir el consumo de productos como el tabaco. Pero son políticas impopulares en los países. Sí puede impulsarlas Europa”, ha señalado. Liesbeth Allein, experta en procesamiento y ‘fake news’, ha explicado cómo las redes sociales transmiten buenas sensaciones de felicidad por las reacciones de otros usuarios a lo que publicamos y por las informaciones que nos hacen llegar, que se acomodan a nuestros gustos e intereses, “y cuanta más dopamina generan, más difícil es liberarse, es muy adictivo”. Al mismo tiempo, el cambio a un algoritmo que ya no es cronológico, como lo era al principio, genera la sensación constante de que el usuario se está perdiendo algo, lo que multiplica la necesidad de conexión. “Si las redes sociales están diseñadas con elementos adictivos, si sabemos cuáles son y sabemos que se pueden quitar del diseño, ¿por qué no se controla más para que ese diseño no lleve a una adicción y no tengamos que centrarnos en la concienciación y en la educación como solución?», ha preguntado esta experta. META, TIKTOK Y YOUTUBE El seminario ha contado con un segundo panel presentado por la eurodiputada de Ciudadanos Susana Solís con tres de las empresas protagonistas de la revolución digital: Meta, TikTok y Youtube. Solís ha descrito los problemas de salud de muchos adolescentes y la necesidad de que toda la sociedad en su conjunto trabaje para minimizar los riesgos. También las empresas, a las que les ha planteado varias cuestiones. “¿Cómo garantizar que los algoritmos no contribuyan a una conducta adictiva? Hay que hablar de contenidos dañinos, de verificar la edad de los usuarios, de esa generación de dopamina…”, ha planteado la eurodiputada. Jade Nester, directora de Política Pública para Europa de TikTok, ha asegurado que la misión de la empresa es inspirar la creatividad y generar alegría. “Esto requiere el compromiso de generar una comunidad segura y tenemos un consejo asesor de seguridad, además de trabajar con jóvenes y padres”, ha dicho. La empresa ha colaborado también con la ONG Internet Matters sobre el tiempo ante la pantalla de los más jóvenes. “He podido observar algunas sesiones de este trabajo y los adolescentes piensan mucho en este tema y quieren control, quieren ser responsables, elegir. Tomamos en cuenta lo que nos piden y hemos creado herramientas en base a esta investigación, es un enfoque impulsado por el usuario para que la gente controle el tiempo en TikTok: mensajes que anuncian que hay que tomar una pausa, un panel que anuncia el tiempo que llevas, la distinción noche y día, el aviso de que se llevan 60 minutos…La idea es forzar un pensamiento sobre la experiencia on line para que tomen sus propias decisiones. También damos opciones a los padres para controlar el tiempo ante la pantalla y que haya una conversación entre padres y jóvenes”, ha explicado. Nicole López, responsable de Política de Jóvenes en Meta, ha explicado que la empresa trabaja para estar acorde con la Ley de Servicios Digitales y que trabaja con un grupo multidisciplinar de expertos en muchas materias “para asegurar de que podemos dar la experiencia correcta para cada edad”. “Los algoritmos seleccionan la experiencia para un adolescente, para evitar por ejemplo contenidos sobre peso o alcohol”, ha explicado. «Pero los adolescentes quieren poder usar las herramientas, queremos estar seguros de que pueden controlar y disfrutar. Hemos generado un menú de gestión del tiempo para que los adolescentes a los 20 minutos en Instagram les indicamos que se tomen una pausa. Les alentamos a que lo hagan. Hay muchas herramientas”, ha defendido. David Wheeldon, director de Asuntos Gubernamentales y Política Pública de YouTube, ha hablado de los aspectos positivos de plataformas como la suya en relación por ejemplo a la salud mental. “Tenemos políticas que protegen a los usuarios de ciertos contenidos que pueden ser dañinos y ofrecemos un acceso a información de alta calidad que apoya en salud mental. En 2021 en YouTube hubo 25.000 millones de contenidos sobre salud mental que vieron los usuarios y que fue un apoyo, es una historia positiva que también tenemos que contar aquí”, ha dicho. ¿PUEDEN LAS EMPRESAS COMPARTIR DATOS SOBRE ADICCIÓN? Tras escuchar sus intervenciones, Pagaza se ha dirigido a los representantes de las tres empresas para preguntarles qué información tienen sobre el uso adictivo de las redes, “porque la adicción no es una cuestión relativa, es algo objetivo”. “Hay menores adictos, pueden ser detectados. Si las sugerencias de desconexión que ustedes les hacen no sirven, ¿pueden aplicar una herramienta de desactivación para esos casos de adicción? ¿Y pueden ustedes compartir toda esta información? Los reguladores necesitamos datos”, les ha planteado la eurodiputada. Nicole Lopez (Meta) ha respondido que las empresas realizan mucha investigación y diseñan con ella las herramientas, “pero es información confidencial”. “Podría haber oportunidades de compartir los análisis, no sé cómo, podemos verlo y dar la información cuando la tengamos”, ha respondido. “Pero creo que se parte del principio de que hay adicción y yo creo que no es necesariamente así… Creo que requiere más investigación, hay que investigar más. Pero quiero que quede claro hoy que las empresas no somos naíf, sabemos que hay problemas y hemos hecho cambios muy significativos de 2017 a hoy. Vamos a seguir trabajando y estamos a favor de un marco que eleve el nivel para proteger a los adolescentes en toda Europa”, ha argumentado. David Wheeldon ha admitido que la empresa es consciente de que va a tener que ser más transparente por la entrada en vigor de la nueva Ley de Servicios Digitales y que quiere cumplir sus obligaciones. “Trabajamos arduamente para estar listos el 25 de agosto”, ha asegurado. Y ha defendido que las empresas no eluden su responsabilidad con los menores, pero los padres también tienen también que afrontar la suya. Él mismo ha afrontado el enfado de su hija adolescente por no tener un móvil para relacionarse con sus amigos hasta los 13 años, ha relatado, “y aún no nos lo perdona”. Jade Nester, por su parte, ha respondido que TikTok bloquea las notificaciones nocturnas para menores de 13 años a las 21 horas y para menores de 16, a partir de las 22 horas, y que tiene también recordatorios sobre la importancia de irse a dormir “en formato TikTok, en un modo más divertido, porque es importante cómo se restringe el uso”. En todo caso, el sistema no impide el acceso. “Los padres pueden restringir el tiempo, damos la herramienta”, ha añadido. |