Google implementó un sistema de inteligencia artificial que sin ayuda humana, analiza videos problemáticos y los bloquea en la página de inicio. El nombre interno según fuentes relacionadas al proyecto es "clasificador de videos basura".

Este sistema está siendo probado desde 2015 pero Google comenzó a implementarlo con fuerza luego de incidentes con videos para niños en 2017, en particular luego del "Elsagate" en el que varios videos mostraban a la princesa de Frozen en situaciones "no aptas para niños".

Un portavoz de Google confirmó que el algoritmo clasifica los videos de la página de inicio y los paneles de "a continuación" que recomiendan otros clips. En base a los comentarios y los reportes de los usuarios se bloquean videos engañosos, sensacionalistas o que solo buscan clics.

Sin embargo tanto empleados actuales como ex empleados afirman que la compañía solo se enfoca seriamente en el asunto cuando hay dinero en juego o cuando la presión externa obliga a actuar, como cuando se sube contenido terrorista.

Esto no evitó que muchos videos que aparecen en la página de inicio sean de contenido escabroso o morboso, como gente peleando o accidentes mortales. Esto promovió a adoptar el clasificador automático de videos basura que ayudó a eliminar de la página de inicio contenido inapropiado para que los espectadores regresen. Google afirmó a sus clientes que "el tiempo de observación" en la página de inicio y la aplicación de Youtube se multiplicó por diez en los últimos 3 años.

El valor de este sistema de IA se potenció ete mes, ya que actualmente se pueden realizar promociones en teléfonos inteligentes a medida que los usuarios se desplazan a través de la aplicación de YouTube, similar a lo que ocurre en Instagram o Facebook. Esto ayudaría a Google a obtener más ingresos de publicidad que sus rivales de las redes sociales.

Si bien Google no comparte los datos financieros de Youtube, RBC Capital Markets estima que el servicio de video generó más de US$20.000 millones en ventas el año pasado. Sin embargo la IA de Youtube aún tienen dificultades con lo que sucede y lo que se dice dentro de algunos videos, más teniendo en cuenta que se suben 450 horas de video por minuto, por lo que siguen habiendo errores.

Serena Yeung, investigadora de la Universidad de Stanford que fue asesorada por la exejecutiva de Google AI Fei-Fei Li, afirma que las señales de datos siguen siendo "ruidosas". ¿Se podría capacitar al software para identificar algo como "personas que pelean" solo por las imágenes? "Se podría", dice Yeung. "Probablemente tendrá muchos errores; funcionará parte del tiempo, pero no todo el tiempo".

Te puede interesar