El impacto de la inteligencia artificial en la vida humana a largo plazo es un tema que aún no se comprende completamente.

Aunque esta tecnología promete resolver una serie de problemas cotidianos, persiste un debate creciente sobre si podría representar una amenaza existencial para la humanidad.

Elon Musk, expresó su preocupación al afirmar que existe una probabilidad de entre el 10% y el 20% de que la inteligencia artificial pueda, en última instancia, destruir a la humanidad.

El dilema de la IA según Elon Musk

Elon Musk, durante el seminario "El gran debate de la IA", comparó el desarrollo de la inteligencia artificial con criar a un niño prodigio, destacando la importancia de la educación en este proceso.

Aunque Musk ha pedido regular la IA y ha expresado preocupaciones sobre sus posibles riesgos, también sugiere que los beneficios potenciales superarán los posibles escenarios negativos.

Sin embargo, no especificó cómo calculó estos riesgos, aunque se cree que utilizó una variable llamada P(doom) que difiere de los enfoques matemáticos convencionales.

Elon Musk sugiere que existe entre el 10% y el 20% de probabilidad de que la inteligencia artificial pueda destruir a la humanidad

Aunque no mencionó explícitamente el peligro de que la IA se vuelva contra los humanos, su evaluación sugiere un optimismo cauteloso hacia el potencial de la inteligencia artificial.

Evaluando el riesgo de la IA: variable P(doom)

La variable P(doom) surgió humorísticamente en foros tecnológicos para cuantificar el peligro de que la inteligencia artificial cause la destrucción de la humanidad.

Esta métrica, aunque informal, pretende estimar las posibilidades de un escenario apocalíptico inducido por la IA.

P(doom), oficialmente "probabilidad de fatalidad", varía de 0 a 100, donde puntuaciones más altas sugieren una mayor amenaza de que la IA no solo esté dispuesta, sino también sea capaz de exterminar a la humanidad.

Establecer un umbral definitivo para la extinción es desafiante debido a la naturaleza informal de la variable.

Sin embargo, las predicciones oscilan entre 5% y 50%, con la primera siendo realista y la última, alarmante. Aunque muchos expertos reconocen esta posibilidad, las opiniones difieren.

Vitalik Buterin estima un modesto 10% para P(doom)

Michio Kaku, "padrino de la IA", minimiza el riesgo, calificando a modelos como ChatGPT como "grabadoras glorificadas".

Vitalik Buterin, cofundador de Ethereum, advierte sobre la amenaza, estimando un modesto 10% para P(doom).

Jan Leike de OpenAI sugiere un rango de 10 a 90, mientras que Dan Hendrycks del Centro para la Seguridad de la IA actualizó su estimación a más de 80. Elon Musk sugiere entre 20 y 30.

Una encuesta reciente entre ingenieros de IA encontró que el promedio de P(doom) era 40.

Te puede interesar