El gran avance en las capacidades de la inteligencia artificial para crear,editar y mejorar imágenes fotográficas presenta desafíos importantes conimplicaciones para la privacidad, la seguridad y la confiabilidad.
Los recuerdos son importantes. Las fotografías son uno de los medios más adecuados para ayudarnos a recordar, con la capacidad de capturar momentos y experiencias visuales de manera muy vívida y detallada.
Al igual que el perfume y la música, te traslada a lugares, personas, eventos y emociones; de forma impresa o conservada en la memoria de nuestros dispositivos móviles.
¿Cuánto poder tendría una IA diseñada para crear y editar fotografías en nuestras vidas? Tanto como el poder de implantar recuerdos de situaciones que nunca han sucedido: modificando hechos vividos, aquellos momentos reales que los humanos atesoramos en una fotografía.
No se trata solamente de generar imágenes falsas para dirigir el presente, sino la posibilidad de lenta y sutilmente editar el pasado,nuestros recuerdos ¿y nuestra historia?
Recientes avances publicados por Google, el día 10 de mayo, en su última Keynote, Google i/O -el gigante de la IA-, presentó impresionantes actualizaciones de su aplicación Google Photo,potenciada con nuevas funciones IA.
¿Creando recuerdos falsos?
"Photo Find" permite realizar búsquedas mejoradas identificando personas, objetos o lugares. "Magic Eraser" nos permite eliminar fácilmente esos fastidiosos objetos (o en ocasiones personas) que"arruinan" nuestras fotos.
Por último, "Magic Editor" nos permite mejorarlascambiando colores, iluminación y otras características. Se ha convertido en unaaplicación muy poderosa, que inclusive provee geolocalización de las fotos coordinada las rutas de Google Maps.
Paradójicamente estas funciones avanzadas podrían generar un traspié en su desarrollo. Es posible que llegue un momento en que la proliferación de fotografías creadas y editadas supere a las "verdaderas", capturadas por las cámaras,alterando los juegos de datos utilizados para entrenar los modelos de IA.
Tras consultar a Google Bard sobre este tema, me respondió: "Es posible que se alcance este punto de inflexión en los próximos años".
Las imágenes creadas o editadas con IA pueden afectar a los propios modelos entrenados en varias formas:
- Sobreajuste: si las generadas por IA contienen características o patrones que no se encuentran en las imágenes reales del conjunto de entrenamiento, el modelo de IA puede sobre ajustarse a estas característicasy ser menos preciso al producir nuevas imágenes.
- Sesgos y prejuicios: si contienen sesgos, como la representación desigualde ciertos grupos de personas, puede llevar a que el modelo de IA aprenday reproduzca estos sesgos en sus predicciones.
- Fake news y propaganda: pueden ser diseñadas para engañar al modelo de IA y hacer que tome decisiones erróneas.
- Inexactitud en las predicciones: Las imágenes generadas por inteligencia artificial pueden ser menos precisas e informativas, derivando en que los modelos realicen predicciones inexactas.
Google advirtió que está trabajando en el desarrollo de herramientas que ayuden a los usuarios a identificarlas imágenes generadas o editadas por inteligencia artificial.
- Y una de ellas es la utilización de meta datos que proporcionaran la siguiente información:
- El nombre del modelo de inteligencia artificial que se usó para crear la imagen.
- La fecha y hora en que se creó la imagen
- La configuración que se usó para crear la imagen.
- Una declaración que indique que la imagen es generada o editada por inteligencia artificial.
Intenciones encontradas
En conclusión, acompañar las imágenes fotográficas, generadas o editadas con AI, con metadatos es una acción responsable de Google.
Seguramente plieguen el resto de las compañías tecnológicas. La intención de permitir que el usuario mantenga cierto control es noble, pero es posible que la proliferación de modelos cerrados, e inclusive los abiertos, dificulte la tarea.
Es evidente que durante los próximos meses continuaremos presenciando este esfuerzo. La historianos dirá cuando se haya logrado.
*Daniel José Feijo es director de la Ingeniería en Informática de UADE