Un desarrollo entre la Universidad de Harvard y el MIT-IBM Watson AI Lab permite discernir entre textos escritos por humanos, o generados por un ordenador
03.08.2019 • 14:35hs • Peritaje de escritos
Peritaje de escritos
Inteligencia artificial: esta plataforma es capaz de detectar si un texto no fue escrito por un humano
No es nuevo que los algoritmos se hayan insertado en la generación de textos, sean literarios o periodísticos.
La automatización de estas labores trae consigo innumerables ventajas, y algún que otro inconveniente. El perfeccionamiento de este trabajo puede hacer que una persona sea incapaz de distinguir si un texto está escrito por un humano o una máquina, lo que, entre otras cosas, podría ayudar a la proliferación de noticias falsas. Paradójicamente, la inteligencia artificial puede convertirse en la herramienta perfecta para detectar si un texto ha sido escrito por un algoritmo.
La Universidad de Harvard y el MIT-IBM Watson AI Lab —un laboratorio académico e industrial que trabaja en investigación relacionada con inteligencia artificial— han desarrollado una herramienta que ayuda a detectar si un texto ha sido generado de forma automática. La plataforma se llama Giant Language Model Test Room (GLTR) y no se preocupa por el significado de las oraciones. En vez de eso, se dedica a buscar patrones estadísticos en el texto: analiza cada palabra y señala si estas son demasiado predecibles para haber sido escritas por un ser humano.
La plataforma utiliza un sistema de colores para que los usuarios puedan comprobar la probabilidad de que el texto esté generado por ordenador de una forma eminentemente visual. Las palabras que el algoritmo considera más predecibles aparecen subrayadas en verde, si son más imprevisibles, se les asigna el amarillo o el rojo y, para aquellas que el sistema considera más originales, utiliza el morado.
Pero detectar la probabilidad de que aparezca una palabra u otra no era una tarea fácil. En este punto, entra en juego OpenAI, una compañía de investigación de inteligencia artificial que había desarrollado un algoritmo capaz de construir fragmentos muy realistas a partir de un modelo de aprendizaje automático que recogía los patrones estadísticos de ciertas palabras. El equipo de GLTR aprovechó una versión del código que la plataforma había lanzado públicamente para abordar esta cuestión, indica El País.
"El sistema de OpenAI predice la siguiente palabra a partir de las palabras anteriores dentro de un texto y así puede generar fragmentos automáticos de mucha calidad", explica Hendrik Strobeld, científico de IBM Research. "Lo que nosotros hicimos fue darle la vuelta a este razonamiento. Preguntar al sistema: ¿qué probabilidad hay de que aparezca la palabra ‘perro’ en esta posición en el texto? Y reflejamos con un sistema de colores si es la quinta palabra más probable o la decimotercera".