YouTube ha eliminado más de 8 millones de videos en los últimos 3 meses

La compañía presentó un reporte sobre las nuevas medidas para mejorar la calidad del contenido

En un intento por ser una mejor plataforma por y para las personas, YouTube presentó su primer reporte trimestral sobre la Aplicación de las Normas de la Comunidad, el cual presentará información sobre las nuevas medidas de seguridad que tome la compañía para cuidar la calidad del contenido subido a la plataforma.

Puedes leer el primer reporte aquí. "Esta actualización mostrará el progreso que estamos haciendo para remover contenido que viole las normas de nuestra plataforma. Para finales de año, planeamos haber refinado nuestro sistema de reportes y haner añadido datos adicionales, tal como información sobre los comentarios información sobre la velocidad y razonamiento detrás de la eliminación sobre éstos", aseguró YouTube en un post en su blog oficial.

Además, la compañía también presentó el Dashboard de Historial de Reportes, en e cual cada usuario podrá revisar y gestionar todos los reportes de contenido incorrecto que hayan marcado. Así, podrás saber si algún experto ya revisó tu solicitud y su resolución cuando una decisión sea tomada. Puedes entrar a tu Dashboard aquí.

Entre los datos más destacados de su primer reporte, YouTube aseguró que ha eliminado más de 8 millones de videos durante estos últimos 3 meses, de los cuales la mayoría eran simple spam o intentos de ocultar contenido para adultos. Además, de todos los videos eliminados, 6.7 millones (casi 84%) fueron marcados como inapropiados por machine learning, no por humanos. Para que te des una idea de la eficiencia e importancia del machine learning, el 76% de los videos marcados por la inteligencia artificial fueron eliminados antes de recibir siquiera una visita.

YouTube puso como ejemplo el tema del "Terrorismo Extremista" para mostrar las ventajas del machine learning. A partir de que esta tecnología empezó a ser utilizada en 2017, cada vez un porcentaje menor de videos es reproducido al menos 10 veces antes de ser marcado y eliminado, mejorando la estadística exponencialmente.

Quizá te interese: Usuarios de Gmail recibieron mensajes de spam de ellos mismos

A pesar de la importancia del machine learning, YouTube también entiende que en muchos casos es necesaria la intervención humana para detectar y eliminar videos peligrosos a tiempo. Es por eso la compañía anunció que, para finales de 2018, planea contar con más de 10,000 especialistas en áreas como terrorismo extremista, contraterrorismo y derechos humanos, y formando equipos regionales para una mejor organización de trabajo.

YouTube terminó su reporte recordando la importancia de que los usuarios trabajen en conjunto con la plataforma para mejorar la calidad del contenido en el sitio. Por eso presentó un video que te recuerda que tú también eres importante para ayudar a reportar contenido inapropiado.

"Nos comprometemos a asegurarnos de que YouTube siga siendo una comunidad viva con sistemas sólidos para eliminar contenido inapropiado y esperamos brindarte más información sobre cómo estos sistemas trabajan y mejoran con el tiempo", finalizó el post.

¿Qué te parecieron las nuevas medidas? ¡Déjanos tus comentarios!

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

  • Lo Mejor

Subir
Advertising