OpenAI realizará cambios en ChatGPT, su modelo de inteligencia artificial (IA), con el objetivo de identificar situaciones de crisis mentales y emocionales durante conversaciones con usuarios.

El chatbot ya cuenta con una serie de medidas que se activan cuando detecta en una conversación, que los usuarios intentan autolesionarse o expresan intenciones suicidas.

En esos casos, la IA ofrece recursos para: 

También se activa cuando los usuarios comparten su intención de dañar a otros.

Si la firma considera que hay riesgos inminentes, se cancela la cuenta y se denuncia a las autoridades.

Nuevas medidas de OpenAI para proteger a sus usuarios

OpenAI compartió los nuevos cambios que buscan mejorar la protección de sus usuarios a través de una actualización de su blog oficial.

Concretamente, mejorarán la detección en conversaciones largas ya que "a medida que aumenta el intercambio entre usuario y chatbot, parte del entrenamiento de seguridad del modelo puede deteriorarse", detallaron desde OpenAI.

De esta manera, ChatGPT estará más atento a lo largo de toda la conversación para ofrecer los recursos de ayuda siempre que sea necesario.

También prestará atención a las múltiples conversaciones, para que el modelo pueda responder de manera adecuada si el usuario decide iniciar otra conversación.

Los cambios también refuerzan el bloqueo de contenido, como imágenes de autolesiones, ya que en determinadas situaciones el chatbot subestima la gravedad de la situación y no activa las protecciones.

Con respecto a los recursos de emergencia, OpenAI ya comenzó a establecer recursos locales en EE.UU. y Europa y pretende aumentar la accesibilidad para ofrecer "servicios de emergencia con un solo clic".

Cómo actúa ChatGPT en situaciones límite

Ante crisis agudas, la intención es construir una red de profesionales de emergencia con los que se pueda contactar directamente a través de ChatGPT. 

Para los menores de edad, la compañía incorporará controles parentales que ayudarán a gestionar el uso que sus hijos de lan a ChatGPT. 

OpenAI pretende ampliarlas también con la posibilidad de que los adolescentes supervisados designen un contacto de emergencia de confianza, para casos de gran angustia.

Te puede interesar