Cada vez más voces, tanto de referentes tecnológicos como del ámbito empresarial, advierten sobre los potenciales peligros que representa la inteligencia artificial para la humanidad.
Entre las frases más resonantes se encuentra: "la IA nos matará a todos", pronunciada por Eliezer Yudkowsky, un reconocido especialista en el tema y activista del racionalismo.
A esto se suma la declaración del llamado "padrino de la IA", Geoffrey Hinton, quien confesó que "parte de él se arrepiente" de su trayectoria, tras abandonar Google para poder hablar con libertad sobre los riesgos del avance de esta tecnología.
Una mansión en San Francisco: el punto de encuentro
En este contexto, días atrás tuvo lugar un exclusivo encuentro en una mansión de u$s30 millones, ubicada sobre un acantilado con vista al Golden Gate, en San Francisco. Allí se dieron cita destacados investigadores en IA, pensadores y expertos en tecnología, convocados a un simposio denominado "Sucesor Digno" (Worthy Successor).
La reunión giró en torno a una propuesta del emprendedor Daniel Faggella: que el "objetivo moral" de una inteligencia artificial avanzada sea desarrollar una entidad tan evolucionada y sensata que "preferirías con gusto que ella (y no la humanidad) determine el futuro de la vida".
Según reportó el medio Wired, el propio Faggella explicó que "este evento se centra en la transición poshumana" y no en "la IA general, que siempre servirá como herramienta para la humanidad".
El evento contó con un centenar de asistentes, y hubo tres presentaciones dedicadas al porvenir de la inteligencia artificial.
Las declaraciones de los expertos
Además, el organizador mencionó declaraciones de figuras clave del ecosistema tecnológico como Elon Musk, Sam Altman y Demis Hassabis, quienes —según él— "fueron bastante francos sobre la posibilidad de que la IA nos mate a todos".
A través de su cuenta de LinkedIn, Faggella reveló detalles sobre el perfil de los invitados. Entre ellos había fundadores de empresas de inteligencia artificial valuadas entre u$s100 millones y u$s5.000 millones; representantes de todos los laboratorios occidentales relevantes, y especialistas en estrategia, entre otros.
El primer turno fue para Ginevera Davis, escritora radicada en Nueva York, quien planteó que trasladar los valores humanos a una inteligencia artificial podría ser, en última instancia, imposible.
Según Davis, las máquinas quizás nunca lleguen a comprender lo que realmente implica la consciencia. En ese marco, propuso una idea disruptiva denominada "alineación cósmica": el desarrollo de una IA capaz de identificar valores más profundos y universales que los que hoy conocemos.
La segunda exposición estuvo a cargo del filósofo Michael Edward Johnson, quien sostuvo que, aunque muchas personas perciben que se avecina una transformación tecnológica profunda, aún no contamos con una estructura ética sólida para enfrentarla.
En particular, advirtió sobre los riesgos de crear inteligencia artificial sin tener claro qué es la consciencia, dado que, según su perspectiva, esta sería "la cuna del valor".
Para Johnson, en lugar de programar a la IA para obedecer indefinidamente las órdenes humanas, el verdadero desafío es enseñar tanto a las personas como a las máquinas a buscar un objetivo mayor: "el bien".
El cierre de la jornada quedó en manos de Daniel Faggella, el organizador del encuentro, quien planteó una postura más radical: considera que la humanidad no está destinada a permanecer en su forma actual, y que debemos asumir la tarea de diseñar un sucesor.
A su juicio, ese "heredero" de la especie humana debería contar con dos atributos clave: consciencia y "autopoiesis", es decir, la capacidad de evolucionar por sí mismo y generar nuevas experiencias.