La red social X, propiedad del empresario y CEO de Tesla, Elon Musk, anunció una medida para combatir la desinformación visual en su plataforma.

A partir de los próximos meses, las publicaciones que incluyan imágenes manipuladas o generadas serán identificadas con etiquetas de advertencia visibles para los usuarios.

Esta novedad fue adelantada por el propio Musk desde su cuenta de X donde dijo: "Edited visuals warning" (Advertencia de visuales editados), en respuesta a una cuenta influyente dentro de la comunidad de la red social.

¿Cómo funcionarán las etiquetas?

De esta forma, el sistema identificará y marcará bajo cada imagen que cumpla con criterios de edición o manipulación una advertencia denominada "Medios manipulados", acompañada de un enlace que llevará a una explicación sobre el significado de la etiqueta y sus implicancias.

El objetivo de esta función es que los usuarios puedan discernir con mayor claridad si el contenido visual fue alterado, con el fin de limitar la difusión de información engañosa o falsa que pueda confundir o manipular audiencias.

Hasta el momento, la compañía no detalló públicamente cómo determinará qué imágenes se consideran falsas o manipuladas, ni si la etiqueta se aplicará a ediciones hechas con herramientas tradicionales como Photoshop o únicamente a contenidos generados por inteligencia artificial (IA).

En esta línea, tampoco se informó todavía cuándo exactamente comenzará el despliegue global de estas etiquetas ni si existirá un proceso de apelación o revisión por parte de los usuarios.

Buscan combatir un contexto marcado por la desinformación visual

Por otro lado, la implementación de esta función le llevó a cabo en un momento en que contenidos manipulados digitalmente, incluidos aquellos creados por IA, se multiplicaron en redes sociales de todo el mundo, algo que generó confusión entre usuarios y amplificó muchas narrativas falsas.

Es por eso que recientemente X estuvo en el centro de una polémica luego de que su asistente de inteligencia artificial, Grok, generara millones de imágenes sexualizadas de personas, incluidos menores, algo que reavivó el debate sobre los límites y riesgos del uso de IA en la creación de contenidos visuales.

Te puede interesar