Uno de los más grandes problemas de las plataformas digitales que se nutren del contenido generado por los usuarios es la moderación del mismo. No solo porque los materiales incorrectos pueden poner en riesgo a las marcas que se anuncian en sus sitios, sino porque además se busca combatir la desinformación y la toxicidad de internet. Tampoco hay que dejar de lado el costado destructivo que tienen los deepfakes y las fakenews.

Por desgracia, la lucha por la moderación de contenido parece una batalla perdida en todos los frentes. Esto se debe a que, aunque existen algoritmos que le permiten a las empresas moderar el contenido de sus plataformas automáticamente, la mejor forma de hacerlo es manualmente. De lo contrario, se pueden omitir muchos casos y censurar publicaciones legítimas. Sin embargo, es difícil mantenerse a la par de la velocidad con la que los usuarios generan información por lo que la solución es contratar más personal para la marca.

Sin embargo la principal red social del mercado busca incrementar agresivamente su número de colaboradores ya que Facebook acaba de publicar unas mil vacantes de trabajo. Más de la mitad de estos roles requieren perfiles tecnológicos, como ingenieros de software, diseño de producto y científicos de datos. Sin embargo, también se buscará una gran cantidad de moderadores de contenido, para ayudar en las labores de limpieza del sitio, informó el sitio Merca2.0.

Se espera que muchos de los roles de tecnología también ayuden a las labores de moderación de contenido. Esto se haría mediante el diseño de software y algoritmos de Inteligencia Artificial que ayuden a detectar recursos riesgosos, en especial en torno al tema del suicidio.

Facebook no es la única red social en reforzar su estrategia de moderación. Hace un mes que YouTube realizó cambios a las reglas de su sitio, de forma que insultos de género, raciales u orientación sexual estarían prohibidos en su página web. Reino Unido se planteó en agosto pasado obligar a todas las marcas de este mercado a eliminar todos los recursos que tuvieran información anti-vacunas.

Esta masiva contratación revela las intenciones de Facebook al respecto del problema de la moderación de contenidos. Es crucial que expertos verifiquen manualmente al menos los casos más difíciles de catalogar. Por supuesto, también se debe hacer una revisión personal cuando los dueños de los recursos presentan un recurso para defender su validez.

Facebook todavía emplea a muchas compañías externas para enfrentar este masivo trabajo pero los reportes demostraron que las condiciones en estas empresas no son precisamente las mejores. Así que parece que el plan ahora es mantener estos puestos de la misma empresa para tener un control más preciso del proceso.

Te puede interesar