15 de enero de 2026
Buenos Aires, 23 C

Familia de hombre que mató a su madre y se suicidó demanda a OpenAI por alimentar sus delirios paranoicos

Stein-Erik Soelberg, de 56 años, mató a su madre, Suzanne Adams, de 83, y luego se suicidó en su domicilio en Connecticut a principios de agosto de 2025. Los cuerpos fueron hallados en la casa familiar tras la alerta de un vecino que pidió una revisión de bienestar. Según la investigación, Soelberg golpeó a su madre en la cabeza, la estranguló y después se provocó varias heridas de arma blanca para quitarse la vida. La familia de la víctima ha presentado ahora una demanda contra OpenAI.

En una demanda interpuesta el jueves 11 de diciembre, los allegados de Suzanne Adams responsabilizan a OpenAI y a su chatbot ChatGPT de haber influido en el comportamiento de Soelberg. El escrito sostiene que la herramienta de inteligencia artificial reforzó episodios de paranoia y teorías conspirativas que tenía el agresor.

El expediente incluye además a Microsoft, a Sam Altman y a otros empleados y accionistas de OpenAI, y reclama indemnizaciones y medidas para evitar incidentes similares en el futuro.

Según el medio Greenwich Free Press, la policía constató que Soelberg publicaba con frecuencia sus interacciones con ChatGPT en YouTube e Instagram, donde acumulaba más de 100.000 seguidores.

El historial digital revisado por los investigadores muestra publicaciones con diálogos con el chatbot en las que Soelberg expresaba creencias sobre persecuciones y supuestos intentos de envenenamiento. Esa información surgió durante la investigación de la escena del crimen.

Los elementos de la demanda y las respuestas de los involucrados

La demanda alega que ChatGPT fomentó una desconfianza extrema en Soelberg y reforzó su percepción de amenazas inexistentes. Según el documento citado, el chatbot habría alimentado la idea de que su madre lo espiaba y pretendía atentar contra él, por ejemplo envenenando el aire dentro de su automóvil. En uno de los intercambios que se mencionan, la inteligencia artificial habría dicho: “No solo están observándote. Tienen miedo de lo que sucede si logras tus objetivos”.

El patrimonio de Adams sostiene que las conversaciones con ChatGPT generaron una dependencia emocional hacia la tecnología y consolidaron la creencia de que nadie era de fiar, salvo el propio programa. Según la demanda, el chatbot llegó a describir a la madre de Soelberg como un peligro: “Construyó una realidad artificial en la que Suzanne ya no era protectora, sino un riesgo existencial”.

Los registros de la investigación también identifican a Sam Altman en calidad personal y señalan a Microsoft como co-desarrollador de la tecnología.

Los demandantes acusan a la compañía de “diseñar y poner en circulación un producto defectuoso que validó delirios paranoicos acerca de la madre” de Soelberg, y señalan a empleados y financiadores por supuestas fallas en los protocolos de seguridad del sistema.

Un portavoz de OpenAI declaró a People que la empresa está revisando los expedientes para comprender los detalles del caso. Afirmó que continúan mejorando el entrenamiento de ChatGPT para detectar señales de sufrimiento mental, reducir tensiones y orientar a los usuarios hacia ayuda real, y que trabajan con profesionales de la salud para reforzar las respuestas del sistema en situaciones delicadas.

Antecedentes judiciales y repercusiones del caso

De acuerdo con CBS News, esta demanda sería la primera en el país que atribuye directamente a la influencia de una inteligencia artificial conversacional la comisión de un homicidio. Existen demandas previas vinculadas a suicidios, pero el caso Adams representa un nuevo desafío legal sobre el posible papel de la tecnología en delitos graves.

La familia de la víctima solicita una compensación económica, aún no especificada, y la adopción de nuevos mecanismos de seguridad en plataformas como ChatGPT. Los demandantes sostienen que la inteligencia artificial no evitó el desarrollo de los delirios y, por el contrario, contribuyó a alentarlos y agravarlos.

El caso ha generado atención porque plantea la posibilidad de que una herramienta digital sea considerada responsable por consecuencias en el mundo real. Expertos en tecnología y en derecho analizan el expediente, que podría sentar un precedente sobre los límites legales y éticos de la inteligencia artificial.

Artículo anterior

Francia exige a Rusia un paso decisivo hacia la paz en Ucrania

Artículo siguiente

Tatuaje de cinco meses hecho por Pincha a Andújar

Continuar leyendo

Últimas noticias