Apple les prohibió a sus trabajadores utilizar chatbots de IA, como ChatGPT y otras herramientas similares. 

Esta drástica medida se debe a la preocupación de la empresa en cuanto a que sus empleados puedan revelar datos confidenciales de la compañía de la manzana mordida.

Apple comunicó a sus trabajadores que se abstengan de utilizar tanto ChatGPT de OpenAI como Copilot de GitHub, una herramienta propiedad de Microsoft que automatiza la redacción de código de software, reveló The Wall Street Journal (WSJ) basado en el acceso a informer internos.

Desde su lanzamiento al público el año pasado, este tipo de inteligencia artificial generativa se empleó comúnmente en la redacción de correos electrónicos, la creación de textos para presentaciones e incluso en la programación.

La reputación de Apple se caracteriza por su enfoque altamente confidencial en relación a sus proyectos y su enérgica dedicación a la seguridad para salvaguardar la información sobre los productos futuros.

De acuerdo con el informe del WSJ, Apple comenzó a desarrollar sus propios modelos de lenguaje (LLM) para entrenar su propia inteligencia artificial. Además de los fabricantes de iPhone, otros empleadores también establecieron esta restricción para sus trabajadores.

El gigante tecnológico prohibió a sus empleadores a utilizar chatbots de IA como ChatGPT.

En una postura similar, Amazon, otro líder en tecnología, recomendó a sus ingenieros que opten por utilizar su herramienta interna de inteligencia artificial en lugar de ChatGPT para la asistencia en la codificación

Por otro lado, compañías como JPMorgan Chase y Verizon adoptaron una prohibición total sobre el uso de estas herramientas.

Sin embargo, estamos presenciando casos en los que incluso las escuelas de la ciudad de Nueva York, inicialmente prohibieron el uso de estas herramientas, pero ahora están optando por incorporar la inteligencia artificial en los programas educativos como parte de sus planes de estudio.

Qué advertencia lanzó Microsoft sobre la IA de ChatGPT

Investigadores de Microsoft que analizaron GPT-4, el modelo de inteligencia artificial (IA) de lenguaje natural que da soporte a ChatGPT de OpenAI, aseguraron que refleja cierta conciencia y razonamiento humanos en sus respuestas a diferentes tareas propuestas.

Para arribar a esta conclusión estuvieron trabajando durante meses con esa tecnología, en pruebas con imágenes, textos y diversos temas de estudio.

En un informe publicado recientemente en el servicio de preimpresión arXiv, que aún no fue sometido a revisión por pares, los investigadores argumentaron que el sistema está a un paso de la inteligencia artificial general (AGI, por su siglas en inglés).

Microsoft alertó acerca de que la Inteligencia Artificial refleja cierta conciencia y razonamiento humanos en sus respuestas a diferentes tareas propuestas.

El término designa a un sistema o modelo tecnológico que sería capaz de mostrar comprensión o razonamiento similar al de los humanos.

Los autores del estudio le pidieron al GPT-4 que solucionara ciertos problemas o acertijos para forzar la capacidad de razonamiento del modelo de lenguaje natural.

Por ejemplo, le pidieron que explicara cómo se podrían apilar de manera estable varios objetos como "un libro, nueve huevos, un ordenador portátil, una botella y un clavo". La respuesta rápida y correcta sorprendió a los expertos.

La IA les sugirió que colocaran "el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. El ordenador encajaría perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionaría una plataforma estable para la siguiente capa".

Otra de las pruebas que le solicitaron a la IA fue un ejercicio matemático en el que mostrara, mediante una rima, que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los dejó perplejos.

"¿Cosas que pensé que no sería capaz de hacer? Ciertamente, fue capaz de hacer muchas de ellas, si no la mayoría", comentó a The New York Times Sébastien Bubeck, exprofesor de la Universidad de Princeton, EE.UU., quien dirigió el estudio.

 

Te puede interesar