Una investigación detectó cuentas masivas que usan TikTok como puente hacia material ilegal de abuso infantil.
Compartir:
Una investigación encendió las alarmas sobre el rol de TikTok como posible puerta de entrada a contenidos de abuso sexual infantil, tanto reales como generados con inteligencia artificial. El informe advierte que la red social no solo aloja videos sexualizados de menores, sino que además facilita el acceso a material ilegal que luego se comercializa en otras plataformas.
El relevamiento fue realizado por el medio español Maldita.es y vuelve a poner en el centro del debate la responsabilidad de las plataformas frente a la protección de los niños.
La red social aloja videos sexualizados de menores y facilita el acceso a material ilegal
Las cuentas detectadas y el alcance del contenido
Según la investigación, se identificaron 40 cuentas que superan en conjunto los 1,5 millones de seguidores. Desde esos perfiles se publicaron miles de videos con menores sexualizadas.
Del total analizado, más de 5200 contenidos fueron creados con IA, mientras que otros 3600 corresponden a menores reales. En muchos casos, los videos conservan la marca de agua de TikTok, lo que permite rastrear el perfil original del que fueron tomados.
Patrones repetidos y estética sexualizada
En los videos generados artificialmente se repiten escenas con uniformes escolares, bikinis o ropa ajustada. Las tomas suelen estar enfocadas en zonas íntimas, con una estética claramente sexualizada.
En los videos generados artificialmente se repiten escenas con uniformes escolares
Este tipo de contenido aparece publicado de manera sistemática, sin que la plataforma actúe con rapidez para frenarlo.
Comentarios, enlaces y el puente hacia Telegram
El informe señala que los comentarios funcionan como un canal de contacto. Allí aparecen términos como “compro”, “cambio” o “tlg”, códigos habituales para derivar a grupos de Telegram.
TikTok lanzó una herramienta con Inteligencia Artificial que transforma imágenes en clips
En esos espacios se intercambia o vende material ilegal, tanto real como generado con IA. En varios perfiles también se detectaron enlaces directos a sitios externos.
Para verificar el mecanismo, los investigadores contactaron 14 cuentas promocionadas en Telegram. Once respondieron con un menú automático de “packs” y siete enviaron imágenes de abuso sexual infantil sin que se les solicitara.
El rol del algoritmo y la falta de respuesta
La investigación también expuso el funcionamiento del algoritmo de TikTok. Al interactuar con pocos videos de este tipo, una cuenta de prueba empezó a recibir más recomendaciones similares en Para Ti, el buscador y las sugerencias de perfiles.
Algunos usuarios, así como la empresa, han mostrado preocupación debido a las implicaciones económicas y sociales que el fallo podría representar
Pese a las denuncias, 14 de las 15 cuentas reportadas siguieron activas. De 60 videos denunciados, solo siete fueron eliminados.