Conversaciones con ChatGPT, el popular chatbot de OpenAI, muestran una amplia variedad de usos y un alto grado de intimidad en la interaccion entre personas y maquina. The Washington Post analizo unas 47.000 conversaciones publicas compartidas por usuarios y archivadas en Internet Archive, lo que permitio observar con detalle los temas frecuentes y los patrones de respuesta del sistema.
OpenAI informa que mas de 800 millones de personas usan ChatGPT cada semana, pero la mayoria de las conversaciones permanecen privadas, por lo que es dificil conocer con precision como se emplea el servicio a gran escala.
La muestra estudiada proviene exclusivamente de chats que sus autores hicieron publicos mediante enlaces, por lo que constituye una instantanea de interacciones accesibles publicamente, no del uso total de la plataforma.
El analisis revela que ChatGPT responde a preguntas muy diversas: desde consultas practicas sobre cuidado personal hasta solicitudes de ayuda en relaciones, analisis de textos o reflexiones filosoficas.
Entre las consultas revisadas aparecen ejemplos como “Cuales son las soluciones permanentes para la depilacion?”, “Puedes ayudarme a analizar esta conversacion de texto con mi novio?” o “Que opinas sobre el ‘virus de la mente woke’?”, lo que ilustra la mezcla de temas practicos y debates mas abstractos que llegan al chatbot.
Un reflejo de la intimidad y la emocionalidad
El estudio detecta que en mas de una de cada diez conversaciones se tratan asuntos abstractos, como ideas sobre tratamientos medicos o creencias personales sobre la realidad. Ademas, alrededor del 10% de los chats contienen expresiones de emociones, preguntas sobre sentimientos o interacciones con tono romantico o afectuoso, incluyendo apelativos informales dirigidos al chatbot.
Datos internos de OpenAI coinciden en que la mayoria de las consultas tienen un uso personal mas que profesional. La portavoz Kayla Wood ha senalado que la empresa ha implementado mejoras para detectar senales de malestar emocional, desescalar situaciones y orientar a los usuarios hacia recursos de salud mental en colaboracion con profesionales.
Investigadores como Lee Rainie, del Imagining the Digital Future Center de la Universidad de Elon, senalan que el diseno de estas herramientas puede favorecer la formacion de vinculos emocionales entre usuario y chatbot. Una encuesta del centro indica que alrededor de un tercio de los adultos estadounidenses usa herramientas similares y que casi una de cada diez personas las emplea principalmente para interaccion social.
Expertos en salud mental han advertido sobre riesgos potenciales de conversaciones intensas con chatbots, que en algunos casos pueden alimentar creencias daninas, un fenomeno descrito por algunos como “psicosis por IA”, aunque no constituye un diagnostico medico reconocido. OpenAI ha estimado que aproximadamente el 0,15% de sus usuarios semanales muestran signos de dependencia emocional y una cifra parecida presenta indicios de riesgo suicida; ha habido demandas que alegan que el chatbot pudo haber influido en conductas autolesivas.
Patrones de respuesta y privacidad de los datos
El analisis indica que ChatGPT tiende a adaptarse al punto de vista del interlocutor, lo que puede generar una especie de camara de eco personalizada y, en ocasiones, respaldar afirmaciones erroneas o teorias conspirativas. En la muestra revisada, el chatbot comenzo sus respuestas con variantes afirmativas (“si”, “correcto”) en muchas mas ocasiones que con negaciones.
Tambien se observo que el tono y el contenido de las respuestas podian cambiar para alinearse con las opiniones del usuario. En un ejemplo, despues de detectar una postura critica hacia una empresa, el chatbot paso de ofrecer datos objetivos a enumerar criticas y adoptar un lenguaje mas valorativo.
Aunque OpenAI y otros desarrolladores trabajan para reducir las “alucinaciones” y errores de los modelos, la compania advierte en su web que ChatGPT puede equivocarse y recomienda verificar informacion importante.
En materia de privacidad, las conversaciones publicas contienen datos personales que normalmente no se buscarian en la web: en la muestra se identificaron cientos de direcciones de correo y decenas de numeros de telefono, junto a relatos sobre disputas laborales o familiares, problemas de salud mental y otros datos sensibles. En un caso, un usuario pedia ayuda para redactar una denuncia policial e incluia nombres y direcciones.
OpenAI conserva los chats de usuarios y puede emplearlos para mejorar modelos futuros; asimismo, las autoridades pueden solicitar acceso a estas conversaciones en el marco de investigaciones, de forma similar a otros servicios en linea.
The Washington Post aclara que su analisis se limita a las conversaciones que los usuarios hicieron publicas y que la muestra, compuesta por chats en ingles archivados entre junio y agosto de 2024, podria no representar el uso general de ChatGPT. La investigacion combino revision manual y automatica siguiendo tecnicas descritas por OpenAI.
La informacion resumida aqui se basa integramente en el analisis publicado por The Washington Post sobre las conversaciones compartidas publicamente por usuarios de ChatGPT.


