Ni filtros ni normas: por qué YouTube sigue dejando pasar contenido sexual explícito
Cuando la moderación automática no distingue entre lo prohibido y lo que da clics
El silencio digital o por qué cada vez más gente quita el sonido del móvil
Así funciona Face ID: lo que ocurre cuando miras tu iPhone
YouTube lleva años insistiendo en que es una plataforma segura, con normas claras y sistemas de moderación cada vez más avanzados. Sin embargo, en la práctica, el contenido sexual en YouTube sigue colándose por grietas cada vez más evidentes. No son vídeos ocultos en rincones oscuros, sino de imágenes explícitas que aparecen en búsquedas aparentemente normales, muchas veces en miniaturas visibles para cualquiera, incluidos menores.
El problema no es nuevo, pero sí cada vez más llamativo. Basta con introducir ciertos términos neutros o ambiguos para que el algoritmo muestre resultados con miniaturas pornográficas sin censura. El vídeo puede estar eliminado a los pocos minutos, pero la imagen ya ha circulado, ha sido vista y ha cumplido su objetivo, el de llamar la atención.
YouTube tiene normas, pero no ojos humanos
YouTube prohíbe de forma explícita el contenido sexual. El problema, del que se ha hecho eco Android Authority, es que la plataforma ya no funciona con revisiones humanas sistemáticas, sino con sistemas automáticos que deben analizar millones de vídeos y millones de imágenes cada día, y ahí es donde el modelo se rompe.
Los filtros automáticos funcionan relativamente bien con audio, texto o fragmentos largos de vídeo, pero fallan con algo tan concreto como una miniatura. Una imagen fija, subida de forma estratégica, puede esquivar durante horas o días los sistemas de detección. En ese tiempo, el algoritmo ya la ha probado, la ha recomendado y la ha mostrado a miles de usuarios.
Las miniaturas se han convertido en el gran agujero
El mayor coladero está en las miniaturas o thumbnails. Muchos creadores juegan al límite, no suben porno como vídeo, pero sí imágenes sexuales explícitas como reclamo visual. El sistema de YouTube reacciona más rápido ante una canción con copyright que ante un pecho o una escena sexual sin censura.
El algoritmo prioriza aquello que genera clics, retención y reacciones rápidas. Una miniatura sexual cumple esas tres condiciones. El sistema no evalúa el contexto, solo el impacto. Cuando la revisión llega, si llega, el daño ya está hecho.
El problema no es el sexo, es dónde aparece
Internet siempre ha tenido contenido sexual y nadie se sorprende por eso. El verdadero conflicto es que YouTube se presenta como una plataforma generalista, familiar y omnipresente. Está en móviles, tablets, ordenadores y televisores del salón. Cuando una imagen explícita aparece en una Smart TV mientras alguien busca un vídeo inocente, el fallo deja de ser técnico y pasa a ser estructural.
Aquí es donde el discurso oficial de YouTube chirría. Se aplican restricciones durísimas a palabras, bromas o contenidos sensibles, pero el contenido sexual en YouTube sigue encontrando atajos visuales para colarse en las recomendaciones.
Un algoritmo que castiga al que habla y premia al que engaña
La paradoja es evidente. Creadores que tratan temas educativos, médicos o divulgativos relacionados con el cuerpo humano sufren desmonetizaciones automáticas. En cambio, cuentas que juegan con imágenes explícitas consiguen visibilidad durante horas gracias a un sistema que no sabe interpretar lo que ve.
No es un problema de falta de normas, que existen. El problema es que el algoritmo no entiende de intenciones, solo de métricas. Y mientras siga funcionando así, siempre habrá quien sepa cómo colar contenido sexual por las rendijas del sistema.
YouTube no está fuera de control, pero tampoco bajo él
La plataforma elimina miles de vídeos cada día, pero eso no significa que el sistema funcione bien, significa que llega tarde. En un ecosistema donde el impacto se mide en segundos, una moderación reactiva ya no es suficiente.
El caso del contenido sexual explícito es solo un síntoma más de algo mayor, una plataforma demasiado grande, demasiado automatizada y demasiado dependiente de algoritmos que priorizan el clic antes que el contexto. Mientras eso no cambie, YouTube seguirá prometiendo filtros y mostrando justo lo contrario.
Temas:
- Youtube
Lo último en Tecnología
-
Por qué las apps “gratis” son cada vez menos gratis
-
El audiovisual en el trabajo híbrido ya es clave para las empresas españolas
-
Si usas auriculares como estos, estás en peligro: un fallo permite que los hackers se cuelen en tu dispositivo y te escuchen
-
Qué es iCloud y para qué sirve realmente el servicio en la nube de Apple
-
Llevas toda la vida con un iPhone y hasta hoy no sabías que tiene un escáner profesional oculto
Últimas noticias
-
Hacienda persigue a estas personas y es oficial: ni se te ocurra sacar este dinero en efectivo del cajero
-
Dos trenes que pasaron antes del Iryo también tienen marcas de la vía rota en sus ruedas
-
Los investigadores no dan crédito: encuentran miles de nuevas especies microbianas en las heces de varios herbívoros
-
Accidentes de tren en Barcelona y Adamuz, última hora en directo | Muertos, heridos, desaparecidos y causas del descarrilamiento
-
El cargo que adjudicó el tramo de Adamuz a una empresa de la ‘trama PSOE’ avaló la «seguridad» de Angrois