Un estudio basado en 47.000 conversaciones públicas con ChatGPT, recopiladas por The Washington Post, ofrece un panorama sobre cómo las personas interactúan con el chatbot.

Lo revelador del informe es que, lejos de limitarse a tareas técnicas o consultas informativas, los usuarios comparten aspectos íntimos, emociones profundas y hasta dilemas existenciales con ChatGPT.

El análisis muestra que muchos usuarios utilizan ChatGPT como un espacio de desahogo emocional, donde se confiesan secretos y piden consejos sobre relaciones personales o salud mental.

En algunos casos, las conversaciones adoptan un tono confesional, como si el modelo fuera una especie de confidente. "Estoy tan solo que necesito hablar con alguien, aunque seas una máquina", escribió un usuario.

Más allá de la dimensión emocional, los usarios también hacen un uso creativo de ChatGPT y le piden ayuda para hacer canciones, escribir poemas, o cartas de amor.

Otra faceta que los usuarios despliegan con e chatbot es la exploración de identidades personales, fantasías o escenarios ficticios. En este sentido, ChatGPT se convierte en una herramienta de exploración narrativa y autoexpresión.

Los usuarios entienden mejor cómo usar la IA, pero descuidan la privacidad

Los usuarios adaptan sus preguntas y lenguaje según la respuesta que esperan. Muchos prueban distintas formas de formular una misma consulta para obtener resultados distintos o más satisfactorios.

Esta dinámica revela que los usuarios aprenden a usar la inteligencia artificial conversacional y ajustan sus prompts para lograr respuestas más útiles o empáticas.

El estudio también muestra que falta conocimiento sobre la privacidad.

Si bien los chats fueron compartidos en espacios públicos, muchos incluyen datos personales, y muestran que la línea entre lo privado y lo que se publica es cada vez más difusa.

En paralelo, el informe destaca cómo ChatGPT responde a estas interacciones con un tono generalmente empático y neutral. Sin embargo, en algunos casos, el modelo evita involucrarse en temas delicados o responde con advertencias sobre su rol limitado.

Esta cautela forma parte de las políticas de seguridad implementadas por OpenAI, pero también genera frustración en ciertos usuarios que buscan respuestas más directas o personales.

Te puede interesar