Nick Bostrom, profesor de filosofía de Oxford, afirmó que "la inteligencia artificial una amenaza mayor para la existencia humana que el cambio climático", ya que este último no será "el mayor cambio que veamos en este siglo".
El trabajo de Bostrom ha sido respaldado por por Elon Musk, que ha expresado puntos de vista apocalípticos sobre la IA, y Bill Gates, un cauteloso y optimista defensor de la tecnología.
"Es poco probable que el cambio climático tenga una buena solución, pero si el desarrollo de AI sale mal, será mucho peor que el cambio climático. La IA puede ser beneficiar mucho a la humanidad, pero también puede salir muy mal", sentenció.
En una entrevista a Business Insider, el catedrático remarcó que "la razón por la que la IA es a menudo representada como robots malvados en los medios de comunicación es porque es una buena historia".
"Los robots son más atractivos visualmente que un chip dentro de una caja negra; se pueden ver y sentir de una manera que no se puede con un chip. Pero la maldad no es el problema. Es la posibilidad de que las inteligencias artificiales sean indiferentes a las metas humanas", completó.
El temor de Bostrom es que si las inteligencias artificiales se vuelven lo suficientemente competentes en la búsqueda de sus objetivos, incluso aquellos que suenan inofensivos, pueden dañar a las personas sin darse cuenta.
En un artículo de 2003, Bostrom da el ejemplo de una IA cuyo único objetivo es maximizar la producción de clips de papel. "En algún momento, podría comenzar transformando primero toda la tierra y luego aumentando porciones de espacio dedicadas a instalaciones de fabricación de clips", alertó.
También resaltó que "la mayor manera en que la IA puede tener un impacto negativo es en el papel de sistemas de información, como seleccionar noticias que confirmen los prejuicios de la gente o actuar como sistemas de vigilancia".
Ya están surgiendo problemas con estos últimos, lo que suscita interrogantes sobre si empresas como Amazon y Microsoft deberían estar vendiendo tecnología de reconocimiento facial a organismos públicos.
Para Bostrom, el gran desafío es mantener la IA bajo control y programarla para alinearla con los objetivos humanos.
"El primer desafío será técnico, como encontrar una forma de desarrollar la IA de manera controlada. Suponiendo que resolvamos eso, nuestros próximos objetivos son los retos sociales de crear un orden mundial que sirva al bien común", advirtió.
Sobre el avance de gigantes como Google, Amazon y Microsoft en la materia, Bostrom aseguró que tiene "la sensación de que no son capaces de averiguar cómo" compatibilizar esta tecnología con las metas humanas, ya que "es mucho esperar que cada compañía de tecnología cree su propio marco ético para controlar la IA."
Con respecto a los gobierno, afirmó que "todavía no hay muchas propuestas políticas claras sobre cómo deben intervenir", ni siquiera " está claro qué es lo que querríamos que hicieran", por lo que recomendó "ampliar la conversación".
Si bien advierte que los Estados están para poner reglas claras, Estados Unidos no ha tenido mucho éxito regulando a los emprendedores, ya que "hay un desajuste cultural entre Silicon Valley y los gobiernos".
"Creo que será necesario que el gobierno cuente con más gente que entienda la IA, no necesariamente investigadores brillantes, sino gente con suficiente experiencia, especializados en informática. La capacidad de entender la IA viene en grados", subrayó.
Y concluyó: "A veces es mejor no ser demasiado especialista, porque si estás demasiado especializado, puedes tener una visión estrecha de las ramificaciones sociales más amplias de un campo".