Años atrás, dos de las más encumbradas personalidades del sector tecnológico a nivel global se enfrentaron mediáticamente, sin reparo alguno, sobre las consecuencias, presentes y futuras, del uso masivo de tecnologías basadas en Inteligencia Artificial (IA).

De un lado, Mark Zuckerberg, creador del Facebook. Del otro, Elon Musk, fundador de Tesla. Ambos, pioneros tecnológicos y figuras capaces de mover el centro de gravedad del avance tecnológico del planeta.

El debate planteó sus diferentes posturas respecto de las consecuencias que podría traer al seno social una utilización masiva de IA en el quehacer cotidiano.

Zuckerberg planteaba una visión muy poco apocalíptica de su implementación, haciendo foco en la posibilidad de múltiples desarrollos que contemplan una mejora en la calidad de vida e incluso un mundo con un desarrollo laboral completamente distinto respecto del tradicional, transformando satisfactoriamente casi todo. Incluso la economía.

Musk, por el contrario, proclamaba una visión desconcertante si el desarrollo e implementación de IA se profundiza. Plantea incluso, con algunos ribetes cinematográficos, una especie de enfrentamiento entre hombres y máquinas. Además de explicar la increíble falta de regulación jurídica que requiere la utilización de los sistemas autónomos futuristas.

Curiosamente, ambos son líderes indiscutidos en sus áreas de influencia y, además, son desarrolladores de IA para sus productos y servicios. Aparecen dos pensamientos.

Primero cabe destacar el valor del conocimiento en función del rol que juega el mismo en la sustentabilidad social del presente siglo. En segundo lugar, y sin importarnos quién tiene dogmáticamente la verdad en el debate, la pregunta sería: ¿Cómo tomar posición desde el seno social cuando apenas podemos comprender de lo que hablamos?

Quizás el problema se asemeja a lo que ocurrió en la sociedad de los '80 cuando con la creación de los circuitos LSI y VLSI (integración a gran escala), chips que contenían miles de transistores en un centímetro cuadrado de silicio, dieron lugar a un gran auge los ordenadores personales y, en consecuencia, la computación se socializó.

Sufrió prematuros cambios con la consiguiente complejidad creciente de los sistemas operativos de entonces, que hacían peligrar esa socialización.

Como ciudadanos 4.0 y usuarios de nuevas tecnologías, estamos en otro contexto: bastante más preparados para la disrupción. Y eso nos hace más proclives a la aceptación de los cambios tecnológicos, cambios que no cesan y, muy por el contrario, se multiplican exponencialmente.

¿Puede entonces la IA limitar nuestro acceso al trabajo e incluso cercenarlo? Es difícil saberlo. Lo que es claro es que, si no fuera la IA, serían otras tecnologías de cambio las que nos propondrían un salto en el discernimiento.

Porque lo importante es comprender que, no es la tecnología quien nos reta, es el desafío de cambiar nuestra relación con los tecnofactos, como además nuestra impronta productiva de ser trabajadores convencionales para reconvertirnos en trabajadores del conocimiento.

Dentro de la IA podemos enunciar una parte de la ciencia que se dedica al estudio de máquinas inteligentes (ligada al concepto de autonomía).

Digamos que explora profundamente los modelos del cerebro humano, el proceso del pensamiento y la consciencia, para luego generar máquinas que reflejen tal comportamiento.

Muchos de nosotros utilizamos en nuestros smartphones a Siri, Google Now, Cortana y todo tipo de asistentes basados en procesos de IA. Podemos además describir a chatbots, humanoides, robots, videojuegos y todo otros. En todo caso podemos decir que la IA es un proceso que se refina con el uso y los dispositivos, aprenden.

Esto nos lleva al concepto de Machine Learning (ML), donde la cuestión se complejiza. Crea sistemas que aprenden automáticamente, lo que significa poder identificar patrones de comportamiento complejos dentro de millones de datos.

Pensemos la potencia que podría tener esta tecnología con el avance de la computación cuántica. Y el ML nos lleva de la mano al Deep Learning (DL) que, a diferencia del primero, no necesita del "modelado" de los datos con los que trabaja.

Pasamos de un aprendizaje "supervisado" en ML a uno desectructurado, con mucha mejor performance que su predecesor. Saca conclusiones sin procesos previos, ni estructuras, trabaja con los datos "en bruto" generando un "aprendizaje no supervisado".

Para poder funcionar, el DL necesita de un poder de proceso muy importante, y es entonces que llegamos a las Redes Neuronales (RN). Estas se basan en el funcionamiento de nuestro cerebro.

Las unidades de procesamiento (maquinas interconectadas entre sí) en las redes neuronales pueden adoptar infinitos valores intermedios entre 0 y 1. No obstante, a través de la adopción de esos valores intermedios (nanocomputación), lograremos un resultado que entrega un mayor nivel de aprendizaje.

Se trata de una forma de computación inspirada en modelos biológicos con sólida base matemática que se organizan por niveles, logrando un sistema interconectado.

Para finalizar, y como resultado del desarrollo de estas tecnologías, comienza a verse algo sorprendente. El llamado M2M (machine to machine) donde existe un intercambio autónomo de información entre dos máquinas remotas: una maquina aprendiendo en contacto directo con otra.

Aquí ya se ingresa en terrenos cinematográficos. Pero cuidado, no tan lejanos. Esto ya es una realidad, aún con resultados que provocan una carcajada, pero no muy lejos de resultados que produzcan admiración e incredulidad.

* Daniel Tedini es Vicedecano de la Facultad de Tecnología Informática, director de la Carrera de Ingeniería en Sistemas Informáticos de la Universidad Abierta Interamericana (UAI), e Investigador del Centro de Altos Estudios en Tecnología Informática (CAETI)

Te puede interesar