Amazon suspendió la venta de varios libros sobre el rey británico Carlos III, escritos supuestamente por herramientas de Inteligencia Artificial (IA), después de que el palacio de Buckingham denunció que contienen información falsa sobre el cáncer que padece el monarca.

Según el tabloide Mail on Sunday, fuentes de la casa real indicaron que cualquier obra que especule sobre el diagnóstico y tratamiento de la enfermedad es "intrusiva, insensible y llena de imprecisiones", al tiempo que advirtió de que los representantes legales del rey siguen muy de cerca este asunto.

IA: la polémica detrás de los "supuestos" libros de Carlos III

Los libros abordan, al parecer, la posibilidad de que Carlos III padezca, entre otros, cáncer de piel o de próstata, si bien el palacio de Buckingham no dio detalles al respecto tras comunicar la noticia el pasado lunes.

Amazon ha confirmado que retiró los títulos que "violan nuestras normas de publicación" y reiteró que evalúa constantemente "la emergencia de nuevas tecnologías".

"Aunque permitimos contenido generado por IA, no permitimos contenido generado por IA que viole nuestras normas de contenido, incluido el contenido que crea una experiencia decepcionante para el cliente", señaló la plataforma de venta en internet.

El diario británico The Telegraph informó que todos los libros retirados están escritos por autores anónimos y han sido "autopublicados" en la web de Amazon.

Los libros abordan, al parecer, la posibilidad de que Carlos III padezca, entre otros, cáncer de piel

En concreto, otros medios identifican la biografía 'La batalla del rey: Carlos III y su lucha contra el cáncer', incluida en el catálogo de la plataforma el pasado 5 de febrero, el día que se dio a conocer que el monarca padece esa dolencia.

La enfermedad del rey fue diagnosticada recientemente mientras fue intervenido por un agrandamiento benigno de próstata, sin especificar de qué tipo de cáncer se trata.

El monarca, no obstante, continúa atendiendo sus funciones específicas de Estado, como firmas de leyes o los contactos telefónicos semanales con el primer ministro británico, Rishi Sunak. 

Inteligencia Artificial: el riesgo del contenido falso

Uno de los aspectos preocupantes en cuanto al avance de la IA es la generación de contenido falso y la desinformación, una tendencia que muestra un ascenso preocupante.

La capacidad de la IA para crear imágenes y audios hiperrealistas que imitan la realidad desafía las estrategias de detección y prevención de fraudes.

Un caso notable fue el engaño a un CEO en el Reino Unido mediante una llamada de voz sintetizada, demostrando cómo la IA puede facilitar el fraude a gran escala.

El impacto laboral de la IA es otro tema crítico. Los modelos de lenguaje como GPT están transformando el mercado laboral, no solo automatizando tareas sino también cambiando la forma en que se realizan.

Herramientas como GitHub Copilot están reconfigurando roles, y creando nuevas profesiones, como prompt engineering, aunque estos roles pueden ser efímeros debido a la capacidad de la IA para auto-optimizarse.

Un análisis sobre el impacto laboral arroja resultados preliminares que indica que los desarrolladores junior obtienen mayores ganancias de productividad en comparación a los desarrolladores con más experiencia; y hasta un 30%. Por este motivo, es clave que las empresas aprovechen esta mejora de la productividad para capacitar a sus empleados en tareas más complejas y estratégicas.

El riesgo de plagio surge cuando la IA genera contenido demasiado similar a obras existentes, especialmente si se sobreajusta a datos específicos o se utilizan prompts muy detallados.

Este fenómeno cuestiona la originalidad y autoría en la era de la IA, planteando desafíos éticos y legales sobre la propiedad intelectual.

Por ejemplo surgen nuevos riesgos como el deepfake que es cuando el vídeo de una persona en el que su cara o cuerpo ha sido alterado digitalmente para que parezca otra persona, normalmente utilizado de forma maliciosa o para difundir información falsa.

Te puede interesar