OpenAI analiza los riesgos de la inteligencia artificial
/https://assets.iproup.com/assets/jpg/2023/03/34214.jpg)
El avance constante en el desarrollo de sistemas de inteligencia artificial trae consigo preocupaciones sobre posibles futuros distópicos.
En respuesta a estas inquietudes, OpenAI tomó medidas proactivas para abordar los desafíos emergentes en el campo de la IA.
La organización ha anunciado la formación de un equipo especializado conocido como "Preparedness".
Este equipo llevará a cabo un análisis exhaustivo de los modelos de inteligencia artificial existentes y emergentes. Su objetivo principal es evaluar y anticiparse a lo que OpenAI considera "riesgos catastróficos".
"Preparedness", bajo la dirección de Aleksander Madry, un destacado experto en aprendizaje automático del MIT que se unió a la organización en mayo, ha emprendido un ambicioso proyecto.
Su objetivo es claro: rastrear, evaluar, pronosticar y proteger contra lo que han identificado como "riesgos catastróficos" relacionados con la inteligencia artificial.
Estos riesgos, según los expertos de OpenAI, abarcan diversas categorías críticas, incluyendo:
La preocupación por los peligros potenciales derivados del desarrollo de sistemas de IA ha sido ampliamente compartida por expertos y figuras influyentes.
Incluso Sam Altman, el CEO de OpenAI, apoya la regulación en este ámbito, reconociendo la importancia de un enfoque ético y responsable en la creación de estos modelos.
OpenAI, líder en el desarrollo de inteligencia artificial, reconoce la complejidad de anticipar todas las amenazas que puedan surgir con el avance de sus sistemas.
Por esta razón, han lanzado una convocatoria abierta para que cualquier interesado envíe estudios relacionados con los riesgos potenciales.
Como incentivo, ofrecen un premio de 25.000 dólares y la posibilidad de unirse al equipo Preparedness para los 10 mejores estudios.
La tarea es animar a los participantes a imaginar que tienen acceso a los modelos más avanzados de OpenAI, como Whisper, GPT-4V o DALLE-3. La pregunta que deberán hacerse es: ¿cuál sería el uso más catastrófico que podría darse a estos modelos?
El equipo Preparedness no solo evaluará riesgos, sino que también desarrollará guías y documentos para diseñar pruebas que se ejecutarán antes y después del desarrollo de estos sistemas.
Aunque OpenAI prevé que sus sistemas superarán las capacidades actuales, reconocen los riesgos crecientes que conllevan.
La preparación es esencial para garantizar tanto los conocimientos como la infraestructura necesaria para la seguridad de sistemas de inteligencia artificial altamente capaces.
En un comunicado en su sitio de prensa, la empresa indicó que idearon un equipo de trabajo específico para dedicarse a ella, con mecanismos de gestión y control para estos sistemas 'superinteligentes'.
Este equipo se enfocará en mejorar las investigaciones con 'sistemas de alineación', entendido como el análisis de procesos que garanticen que los desarrollos IA entreguen resultados deseados de acuerdo a una serie de parametros pautados por los humanos.
Esta infraestructura podría ser utilizada para desarrollar lo que desde la compañía describen como un 'investigador de alineación automatizado a nivel humano', que busca entrenar sistemas de IA con base en comentarios humanos para cumplimentar tareas de asistencia en la evaluación humana del avance de esta herramienta.
Desde OpenAI consideran que la superinteligencia podría ser una realidad esta misma década, ya que la capacidad de la IA también entraña un riesgo que podría llevar "al desempoderamiento de la humanidad o incluso a la extinción humana".
"No tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta. Nuestras técnicas actuales para alinear la IA, como el aprendizaje reforzado a partir de la retroalimentación humana, se basan en la capacidad de los humanos para supervisar la IA", indicó OpenAI al respecto.
Y añadió: "pero los humanos no podrán supervisar de manera confiable los sistemas de inteligencia artificial mucho más inteligentes que nosotros".
Altman, fundador de OpenAI, el presidente Greg Brockman y el científico jefe Ilya Sutskever, admitieron en reiteradas ocasiones que la regulación sobre desarrollos como ChatGPT y otras plataformas basadas IA es de "imperiosa necesidad". Misión para la cual, opinaron, no existe ninguna entidad competente para lograrlo.
Según un informe elaborado por Goldman Sachs, el panorama es desolador: al menos 300.000.000 de personas en todo el mundo se quedarán sin trabajos debido a que la inteligencia artificial podrá reemplazar sus funciones.
Frente a un panorama desalentador para algunos trabajadores, este sería el listado de los trabajos que la inteligencia artificial reemplazaría:
El campo académico también tendrá algunas implicaciones y en este sentido se puede agregar que las más afectadas son aquellas que pueden llegar a ser automatizadas.