Una filtración saca a la luz la desprotección de los menores en la red social, el tiempo que necesita su algoritmo para engancharlos o cómo penaliza la visibilidad de las personas «no atractivas». TikTok dice que el material se ha «sacado de contexto»
Entrevista – Un perito forense avisa de que TikTok «no es para niños»: «Si quieren corromperlos, es el sitio ideal»
El exjefe de protección de Facebook lloró en ‘Salvados’ al ver el acoso a una menor: “Meta es una trituradora de humanidad”
TikTok tiene monedas virtuales con forma de flor, juguetes de peluche o rosas, en función de la cantidad de dinero que representen. Las promueve como método para que los usuarios puedan “recompensar” a los creadores cuando les gusta un determinado contenido. La dirección de la red social supo en 2022 que un número “elevado” de niñas que hacían retransmisiones en directo a través de la aplicación estaban recibiendo esas monedas virtuales, enviadas por adultos para que se desnudasen.
Información como esta ha salido a la luz a raíz de una filtración de documentación interna de la red social creada en China a la que ha tenido acceso la NPR, la radio pública estadounidense. El material incluye comunicaciones entre responsables de TikTok y detalles de su algoritmo que han llegado a manos de la prensa a causa del error del tribunal que investiga una demanda interpuesta por 14 fiscales generales del país contra la app, que no censuró documentos que permanecen bajo secreto de sumario.
La dirección de TikTok descubrió que una cantidad “significativa” de adultos estaba aprovechando la plataforma para enviar mensajes directos a menores de edad para que se desnudasen en directo tras un análisis interno, que arrancó después de que una investigación de Forbes documentara cómo la red social se había convertido en “un club de striptease lleno de niñas de 15 años”.
“Uno de nuestros descubrimientos clave durante este proyecto que se ha convertido en un gran desafío para el negocio en directo es que el contenido que obtiene la mayor participación puede no ser el contenido que queremos en nuestra plataforma”, alertó uno de los empleados. El análisis de TikTok reveló que en un solo mes se enviaron un millón de “regalos” a menores través de la moneda virtual de la aplicación que tenían como objetivo este tipo de “transacciones”.
Los mensajes entre los ejecutivos vistos por la NPR les muestran hablando “con franqueza” sobre los peligros que la popular red social tiene para los niños, como su potencial para poner en contacto a menores de edad con abusadores o la capacidad de su algoritmo para hacerlos adictos. “Aún más inquietante fue que los ejecutivos de TikTok eran muy conscientes del daño potencial que la aplicación puede causar a los adolescentes, pero no parecían preocupados”, dice el ente público sobre estas comunicaciones.
La compañía ha criticado la decisión de la radio pública de EEUU por aprovecharse de un error judicial y la acusa de tergiversar la información en un comunicado enviado a elDiario.es. “Es sumamente irresponsable por parte de NPR publicar información que se encuentra bajo secreto de sumario. Lamentablemente, esta denuncia selecciona cuidadosamente citas engañosas y saca de contexto documentos obsoletos para tergiversar nuestro compromiso con la seguridad de la comunidad”, asegura.
La desprotección de los niños en TikTok había generado alarmas también en España. Un perito forense especializado en los delitos de abusos de menores en esta red social denunció en entrevista con elDiario.es que la plataforma ofrece la “mayor impunidad” a los abusadores. “Para quienes quieren corromperlos, Tiktok es el sitio ideal. De las redes sociales en las que hay menores, es donde está todo más oscuro y por lo tanto los depredadores se mueven con mayor impunidad. También tiene antecedentes de no colaborar con la justicia en la persecución de este tipo de criminales. Ni siquiera mediando orden judicial”, detalló.
Además las comunicaciones de la cúpula directiva de la red social sobre esta situación, la filtración abarca también aspectos hasta ahora desconocidos sobre su algoritmo.
35 minutos para enganchar a alguien
Los estudios internos de TikTok precisan lo efectivo que es su algoritmo a la hora de crear un hábito de consumo de la plataforma. Son 260 vídeos, que dada su corta duración, equivalen a unos 35 minutos.
Según otro documento interno analizado por la NPR, la red social era consciente de que sus numerosas funciones diseñadas para mantener a los jóvenes en la aplicación “generaban una necesidad constante e irresistible de seguir abriendo la aplicación”.
“El uso compulsivo se correlaciona con una serie de efectos negativos para la salud mental, como la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad”, cita la demanda a partir de datos internos de TikTok. “Interfiere con responsabilidades personales esenciales como dormir lo suficiente, responsabilidades laborales y escolares y conectarse con seres queridos”, añade.
Interfiere con responsabilidades personales esenciales como dormir lo suficiente, responsabilidades laborales y escolares y conectarse con seres queridos
La plataforma ha desarrollado desde 2022 varias herramientas para controlar el tiempo de uso de todos los usuarios, incluidos los más jóvenes. Sin embargo, las comunicaciones entre ejecutivos revelan que estos eran conscientes de que esas funciones apenas habían tenido efecto. Sus pruebas internas revelaron que las herramientas solo lograron generar una caída de 1,5 minutos en el uso de la app: los adolescentes en EEUU pasaban 108,5 minutos al fía de media en TikTok antes de activarlas, por los 107 minutos de después.
Según la NPR, uno de los mensajes filtrados muestra a un jefe de proyecto de TikTok asegurando que el objetivo de esas herramientas contra la adicción es “mejorar la confianza del público en la plataforma TikTok a través de la cobertura de los medios”. “Nuestro objetivo no es reducir el tiempo empleado”, añadía.
En su comunicación con elDiario.es, fuentes de TikTok ha enumerado esas herramientas entre las acciones de la aplicación para reducir su efecto nocivo en los menores. “Contamos con sólidas medidas de seguridad, que incluyen la eliminación proactiva de cuentas de usuarios, sospechosas de pertenecer a menores de edad, y hemos lanzado voluntariamente funciones de seguridad como límites de tiempo de pantalla que están activos por defecto, herramientas de sincronización familiar, y límites de privacidad activados por defecto, para menores de 16 años. Respaldamos estos esfuerzos”, han asegurado.
Como era de esperar, en la mayoría de las métricas de interacción, cuanto más joven es el usuario, mejor es el rendimiento
TikTok se ve a sí misma como una “carrera armamentista por la atención”, según una presentación interna de 2021 citada por la NPR. La red social no se cierra ningún público, pero es consciente de que los niños son los más susceptibles a ser absorbidos por su flujo infinito de videos. “Como era de esperar, en la mayoría de las métricas de interacción, cuanto más joven es el usuario, mejor es el rendimiento”, destacó uno de sus informes.
En respuesta a la creciente preocupación nacional de que el uso excesivo de las redes sociales puede aumentar el riesgo de depresión, ansiedad y problemas de imagen corporal entre los niños, TikTok ha presentado herramientas de gestión del tiempo. Estas incluyen notificaciones que informan a los adolescentes sobre cuánto tiempo pasan en la aplicación, funciones de supervisión parental y la capacidad de hacer que la aplicación sea inaccesible durante un tiempo.
Al mismo tiempo, sin embargo, TikTok sabía lo improbable que era que estas herramientas fueran efectivas, según los materiales obtenidos por los investigadores de Kentucky.
“Los menores no tienen función ejecutiva para controlar su tiempo frente a la pantalla, mientras que los adultos jóvenes sí la tienen”, se lee en un documento interno de TikTok.
Reducir la visibilidad de “sujetos no atractivos”
Otra de las características de TikTok que había generado polémica en todo el mundo son sus filtros de belleza. Estos recurren a inteligencia artificial para modificar las facciones de los usuarios para que se acerquen más a determinados cánones, como labios más llenos u ojos más grandes. Como ha documentado elDiario.es, las asociaciones de apoyo a los jóvenes reciben a menudo llamadas de familias preocupadas por la “ansiedad y baja autoestima” que esta tecnología provoca en los adolescentes. Según su documentación interna, TikTok también era consciente de esto.
Sus empleados sugirieron a la empresa “ofrecer a los usuarios recursos educativos sobre los trastornos de la imagen” y crear una campaña “para crear conciencia sobre los problemas de baja autoestima (causados por el uso excesivo de filtros y otros problemas)”. También propusieron agregar algún tipo de aviso antes de utilizar los filtros que incluyera “una declaración de concientización sobre los filtros y la importancia de una imagen corporal positiva y la salud mental”.
Ninguna de esas acciones se ha llevado a cabo, por lo que la dirección de la compañía deshecho las propuestas. No obstante, las filtraciones revelan que TikTok llevó aún más allá su obsesión por la apariencia de los usuarios que crean contenido. Un estudio interno apuntó que los vídeos de la red social estaba mostrando “un gran volumen de… sujetos no atractivos” y decidió remediarlo alterando su algoritmo para perjudicar su visibilidad.
“Al cambiar el algoritmo de TikTok para mostrar menos ‘sujetos no atractivos’ en el feed Para ti, [TikTok] tomó medidas activas para promover una norma de belleza estrecha aunque pudiera afectar negativamente a sus usuarios jóvenes”, reza la demanda de los fiscales estatales contra la red social.
Burbujas negativas
TikTok también es consciente de cómo funciona el efecto burbuja en su red social. Su material interno lo ha definido como el fenómeno que se da cuando el usuario “encuentra solo información y opiniones que se ajustan a sus propias creencias y las refuerzan, provocadas por algoritmos que personalizan la experiencia en línea de un individuo”.
La NPR cita que durante una presentación interna sobre seguridad en 2020, los empleados advirtieron que la aplicación “puede ofrecer contenido potencialmente dañino de manera expedita”, como vídeos sobre suicidio, dolor o depresión. A partir de entonces, realizaron experimentos internos con cuentas de prueba para comprobar el alcance de ese tipo de burbujas negativas.
La intensa densidad de contenido negativo me hace bajar el ánimo y aumenta mis sentimientos de tristeza, aunque estoy de muy buen humor en mi vida reciente
El análisis de uno de ellos, tras seguir varias cuentas que comparten mensajes sobre esas temáticas, reveló que el algoritmo tardo solo “20 minutos” en meterlo en esa burbuja de contenidos. “La intensa densidad de contenido negativo me hace bajar el ánimo y aumenta mis sentimientos de tristeza, aunque estoy de muy buen humor en mi vida reciente”, recogió su informe.
Otro empleado alertó de que “hay muchos videos que mencionan el suicidio”, incluido uno que preguntaba: “Si pudieras suicidarte sin lastimar a nadie, ¿lo harías?”. La empresa escribió que es posible tener más moderadores humanos para etiquetar el contenido, pero “requiere un gran esfuerzo humano”. Los informes de la plataforma recogen que esa falta de moderación provocó que hubiera vídeos de autolesiones que tuvieron más de 75.000 visualizaciones antes de que TikTok los identificara y eliminara.
Denuncia estatal
Todo este material proviene de una investigación de dos años de las fiscalías de 14 estados de EEUU, lideradas tanto por demócratas como republicanos. Los fiscales presentaron el pasado martes su demanda, una de las cuales, presentada en Kentacky, permitió a la radio pública local y a la NPR acceder a la documentación interna de TikTok.
La fiscal general de Nueva York, Letitia James, señaló durante la presentación de la demanda que “gente joven ha muerto o quedado gravemente herida haciendo retos peligrosos de TikTok y muchos más se sienten más tristes, ansiosos y deprimidos por las funciones adictivas de TikTok”.
En 2023 una coalición aún más amplia de 41 fiscales demandó por motivos similares a Meta, la propietaria de Instagram, Whatsapp y Facebook, argumentando que sus redes sociales son adictivas para los niños y adolescentes, comparándolas con el opio o el tabaco. Una de las fuentes de aquella investigación estatal, Arturo Béjar, ex ingeniero de Meta, concedió poco después una entrevista a elDiario.es en el que reveló que los ejecutivos de la corporación también son conscientes de la falta de protección de los menores: “Un tercio de los adolescentes en Instagram han recibido acoso sexual en el último mes”.