Si bien la inteligencia artificial está logrando una mayor eficiencia en muchas actividades, también trae algunos riesgos para la sociedad.

La llegada de Sora, creada por OpenAI, firma detrás de ChatGPT, demostró que esta innovación está creciendo a pasos agigantados: permite generar un video detallado a través de una breve descripción de texto.

Inteligencia artificial: por qué están en alerta los gobiernos

Recientemente, Mira Murati, directora de tecnología de la compañía, en una entrevista concedida al Wall Street Journal, reveló que este año estará disponible para cualquier usuario, además de detallar algunas de las funciones que tendrá.

Entre los planes de la empresa se destaca el de añadir audio en los vídeos generados a través de Sora, haciendo que el contenido creado sea sumamente realista, pudiendo agregar sonidos de fondo y voces, entre otras funciones.

Asimismo, la experta asegura que están intentando que esta tecnología sea una herramienta con la que la gente pueda editar o crear. De esta forma, los usuarios pueden mejorar los planos o creaciones que no sean tan precisas por parte de la inteligencia artificial.

Esto generó una gran cantidad de "alertas" en los expertos por el potencial que tendría esta herramienta para generar fakes news, especialmente en el ámbito de la política, de forma muy "creíble", logrando una rápida viralización a través de las redes sociales como X.

En este sentido, la directora advirtió que es muy probable que Sora no admita la posibilidad de generar videos de figuras públicas. Además, para evitar estos inconvenientes, es muy probable que cuente con una marca de agua para que las personas puedan distinguir entre un contenido generado por inteligencia artificial de uno real.

Sin embargo, los especialistas argumentan que estas eventuales restricciones podrán evadirse (por ejemplo, es muy probable que solo se restringa a las figuras públicas más conocidas), como también advirtieron de la posibilidad de que se edite la marca de agua, haciendo pasar el contenido generado por IA como contenido genuino.

Inteligencia artificial: el gran peligro

Iñaki Apezteguia, cofundador de Crossing Capital, explica que es un gran desafío comprobar que efectivamente el discurso que una persona esté dando no se trate de una representación simulada mediante inteligencia artificial.

"Las consecuencias que esto tiene, sobre todo lo relacionado con la difusión de fake news, suelen ser graves y es un tema que cada vez se profundiza más. Creo que en este punto es donde la tecnología blockchain puede aportar un gran valor, ya que permite establecer cuándo se generó un evento en particular, auditarlo de forma pública, corroborar determinadas interacciones, entre otras acciones", argumenta.

Asimismo, gracias al avance tecnológico, Apezteguia argumenta que se puede establecer la identidad digital de una persona en un registro público abierto y auditable. De esta manera, se podrá evitar falsedades, duplicaciones y todos los fraudes posibles derivados de las fake news.

"El impacto de una fake news con IA puede ser muy grande, sobre todo porque hoy en día, gracias al internet y las redes sociales, el contenido se viraliza muy rápido. Este hecho, sumado a que los procedimientos actuales de verificación de la veracidad de la información son más lentos que las reacciones de las personas, pueden generar un verdadero problema en el ámbito político", reflexiona.

Sora permite crear videos realistas a partir de descripciones de texto

Para el especialista, es de suma importancia que se avance en mejoras de los procedimientos previamente mencionados para evitar que se propaguen con rapidez eventos simulados que sean interpretados como veraces.

Gastón Levar, director ejecutivo de Bowery, advierte a iProUP que es un debate que se está planteando actualmente y que la tecnología de OpenAI ya la tiene.

"El problema de Sora es que no la pueden lanzar por la cantidad de dilemas que hay. Sin ir más lejos, en Estados Unidos hay una campaña presidencial, por lo que lanzar este tipo de proyectos en estos momentos puede ser muy contraproducente para la empresa y su visión", advierte.

Para Levar, el principal inconveniente, en línea con lo planteado por Apezteguia, es el funcionamiento actual para la detección de fake news. Es decir, OpenAI creó la herramienta para armar ese contenido, pero no para diferenciar lo que es falso de lo que no lo es.

"Además, considero que se necesita mucha educación para usar este tipo de herramientas, ya que, en plena campaña presidencial, las redes se llenarían de noticias falsas. Hoy en día, con esa tecnología, es muy fácil crear y difundir fake news", asegura.

El experto considera que un temprano lanzamiento generaría conflictos con congresistas, senadores y personas de la política que no tiene sentido tenerlas en contra. "Por este motivo, hoy solo hay un equipo llamado 'Red Team', que es el único habilitado para probar esta herramienta. Hoy, el desafío es más político que tecnológico", concluye.

De esta forma, podemos afirmar que, si bien el desarrollo de Sora es muy prometedor, aún hay muchos dilemas sobre la difusión de las fake news, por lo que habrá que ver si desde la compañía trabajarán en este problema.

Te puede interesar