Un grupo de investigadores internos de Meta y académicos externos llevó a cabo un estudio sobre el impacto de estas plataformas en el comportamiento electoral de sus usuarios. 

En el estudio se llegó a la conclusión de que aquellos usuarios con inclinaciones ideológicas más conservadoras tendían a estar expuestos a una mayor cantidad de fake news en Facebook en comparación con aquellos usuarios con posturas más liberales.

El análisis mencionado es parte de un proyecto emprendido por Meta en agosto de 2020, denominado Estudio de Elecciones de Facebook e Instagram (FIES). El objetivo de esta iniciativa es comprender el efecto de las redes sociales en los procesos electorales democráticos.

Para ser más precisos, este análisis se realizó específicamente durante las elecciones presidenciales de los Estados Unidos de 2020.

Qué dice el proyecto realizado por Meta

Con el fin de realizar estas investigaciones, Meta colaboró con 17 científicos externos y totalmente independientes de la empresa, quienes tuvo total libertad para decidir qué análisis llevar a cabo. 

En el contexto de este medio, publicaron tres artículos, donde cada estudio examinó la actividad de aproximadamente 23.000 usuarios en las plataformas de redes sociales de Meta, durante el período comprendido entre finales de septiembre y finales de diciembre de 2020.

Meta llevó a cabo un estudio comenzado en 2020 realizado por un grupo de investigadores internos y externos de la compañía.

Durante el proceso electoral, la empresa tecnológica perteneciente a Facebook e Instagram recopiló datos de los usuarios bajo su investigación, previa autorización de los mismos. 

En el primer artículo publicado en la revista Science, titulado 'Assymetric Ideological Segregation in Exposure to Political News on Facebook', se caracteriza a Facebook como un entorno social e informativo que muestra una significativa segregación ideológica. 

En el artículo, los investigadores examinaron las noticias políticas que aparecían en los "feeds" de los usuarios, clasificándolas según sus orientaciones políticas, es decir, si eran liberales o conservadoras.

Luego de sus análisis, los investigadores determinaron que "hay una mayor prevalencia de contenido poco confiable en los medios de derechas con respecto a los de izquierdas"

En consecuencia, los usuarios con inclinaciones políticas más conservadoras están más expuestos a información falsa o desinformación en Facebook en comparación con aquellos que tienen opiniones más liberales.

En el estudio titulado 'How Do Social Media Feed Algorithms Affect Attitudes and Behavior in an Election Campaing?', los científicos exploraron la influencia de los algoritmos utilizados por Facebook e Instagram en los comportamientos electorales de los usuarios. 

El estudio se realizó durante las elecciones presidenciales de Estados Unidos en 2020.

Para esto, analizaron a usuarios que tienen un feed de noticias cronológicas y otros que experimentan un muro de noticias impulsado por los algoritmos.

En este contexto, los investigadores señalaron que en el feed de noticias cronológicas de Facebook, "aumentó la proporción de contenido de fuentes no fiables en más de dos tercios en relación con el 'feed' algorítmico"

También observaron un aumento similar en Instagram, aunque en menor medida.

Además, los investigadores concluyeron que este muro de noticias cronológico logró disminuir significativamente el tiempo que los usuarios dedicaban a ambas plataformas y su nivel de interacción en ellas.

También, observaron un aumento en la visualización de contenidos provenientes de amigos y fuentes con audiencias ideológicamente más diversas, así como un incremento en el consumo de contenido político y fuentes no confiables. 

En comparación, hubo una disminución en el acceso a contenido clasificado como incívico.

Los investigadores determinaron que los usuarios con inclinaciones políticas más conservadoras están más expuestos a información falsa o desinformación en Facebook en comparación con aquellos que tienen opiniones más liberales.

En el más reciente de los estudios publicados en Science, llamado 'Reshares on Social Media Amplify Political news but do not Detectably Affect Beliefs or Opinions', se destacó que la función de compartir contenido ya publicado por otros contribuye a la difusión de ciertas publicaciones, aunque esta acción no siempre resulta en la viralización de un "post".

En este sentido, los investigadores analizaron el impacto de la eliminación de contenido compartido en Facebook sobre la actitud y el comportamiento político de los usuarios.

Según los expertos, la eliminación de contenido compartido en Facebook tiene efectos significativos: reduce considerablemente la cantidad de noticias políticas, incluyendo contenido de fuentes no confiables, al cual los usuarios están expuestos. Además, disminuye la cantidad de clics y reacciones generales en general, así como los clics en noticias partidistas.

También, destacaron que la eliminación de las publicaciones compartidas conlleva una disminución en el nivel de conocimiento de los usuarios sobre las noticias, aunque no encontraron evidencia de que esto afecte a la polarización política.

Además de los tres artículos publicados en la revista Science, se sumó una publicación en la revista Nature.

Además, los investigadores determinaron que eliminar contenido compartido en Facebook educe considerablemente la cantidad de noticias políticas.

El enfoque de esta última publicación se enfocó en el estudio de las denominadas "cámaras de resonancia". 

Este fenómeno ocurre tanto en medios de comunicación como en redes sociales, donde los participantes tienden a encontrar ideas que amplifican y refuerzan sus propias creencias.

Los investigadores parten de la premisa de que la información visualizada en las redes sociales "puede ser más un espejo" de la identidad de los usuarios "que una fuente de las opiniones" que estos manifiestan.

Basándose en sus hallazgos, los investigadores llegaron a la conclusión de que cuando los usuarios visualizan contenido de fuentes similares en su "feed", su nivel de participación es más elevado. 

Además, observaron que la mayoría del contenido que los adultos activos de Facebook en los Estados Unidos ven en la plataforma proviene de amigos políticamente afines. 

Este contenido tiene el potencial de fortalecer la identidad partidista, aun cuando no sea explícitamente político.

Otro hallazgo fue de que cuando los usuarios visualizan contenido de fuentes similares en su "feed", su nivel de participación es más elevado. 
 

También, los investigadores determinaron que la reducción del contenido con ideas afines durante los tres meses de recopilación de datos para estos estudios resultó en una disminución en el compromiso de los usuarios, aunque no produjo cambios significativos en sus creencias o actitudes.

La respuesta de Meta

Por otro lado, la empresa tecnológica manifestó que estos estudios podrían contribuir a abordar los interrogantes más complejos relacionados con las redes sociales y la democracia. Así lo expresó Nick Clegg, el presidente de Asuntos Globales de Meta.

El ejecutivo reiteró que estos estudios demuestran que existe poca evidencia de que las características fundamentales de las plataformas de Meta, por sí mismas, causen una polarización afectiva perjudicial o tengan efectos significativos en actitudes, creencias o comportamientos políticos importantes.

Clegg hizo hincapié en que, en el marco de los experimentos, cuando los participantes visualizaron menor contenido proveniente de fuentes que reforzaban sus puntos de vista, en realidad tendieron a interactuar más con el contenido de ideas afines que se les presentó. 

Sin embargo, esto tampoco tuvo un efecto detectable en la polarización, actitudes políticas o creencias de los usuarios.

Además, aclaró que aunque los estudios publicados no solucionen todas las controversias relacionadas con las redes sociales y la democracia, confía en que estos análisis contribuyan a una mayor comprensión de estos temas por parte de la sociedad.

Te puede interesar