La Organización Mundial de la Salud (OMS) admitió es necesario realizar una evaluación exhaustiva de tecnologías como ChatGPT, Bard, Bert y otras inteligencias artificiales que imitan el comportamiento humano, con el fin de comprender sus riesgos y desafíos. 

La entidad sugirió que el diseño de estas tecnologías se debe enfocar en:

"La OMS pide que se tenga cuidado al usar herramientas de modelo de lenguaje grande (LLM) generadas por inteligencia artificial (IA) para proteger y promover el bienestar humano, la seguridad humana y la autonomía, y preservar la salud pública", remarcó.

La organización mostró su entusiasmo ante el emergente desarrollo de tecnologías como ChatGPT y Bard, y reconoció su utilidad en diversas industrias, incluida la salud. 

Sin embargo, también apuntó que surgen preocupaciones debido al crecimiento acelerado de la IA, al notar que su implementación "no se lleva a cabo de manera coherente".

"No se está ejerciendo de manera coherente la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa", apuntó la entidad.

La OMS pidió realizar una evaluación exhaustiva de tecnologías como ChatGPT, Bard, Bert y otras inteligencias artificiales.

En un informe reciente, la Organización de las Naciones Unidas (ONU) advirtió sobre la necesidad de examinar las implicaciones éticas, no solo tecnológicas, del crecimiento de la inteligencia artificial.

Se destacó que este avance tecnológico contribuye al aumento de las desigualdades existentes en diversos ámbitos.

Según un informe de BeInCrypto, Gabriela Ramos, directora general adjunta de la UNESCO para las Ciencias Sociales y Humanas, hizo hincapié en la importancia de regular la IA. 

Recomendó la creación de un marco de gobernanza para el entorno digital a nivel mundial. Además, reconoció que la narrativa actual se centra únicamente en un debate tecnológico, dejando de lado otros aspectos fundamentales.

Organizaciones insisten en regular las IA como ChatGPT y Bard

La OMS expresó su preocupación por la implementación apresurada de la IA con sistemas no probados. 

Esta situación podría llevar a errores por parte de los profesionales de la salud y resultar en daños a los pacientes. Además, existe el riesgo de socavar la confianza en la IA y comprometer sus beneficios futuros.

A su vez, la OMS expresó que expresó su preocupación por la implementación apresurada de la inteligencia artificial (IA) con sistemas no probados.

"Los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión", expresó la OMS. 

Y agregó: "Podrían generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves".

La entidad reconoció que la IA puede ser empleada de manera convincente en forma de texto, audio o video para llevar a cabo campañas de desinformación a nivel global. 

Estas presentaciones pueden dificultar la distinción entre lo verdadero y lo falso. Por lo tanto, es crucial implementar políticas públicas que regulen su uso.

"La OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas", completó.

Te puede interesar