Acusan a OpenAI de influir en un CRIMEN: la familia del ATACANTE afirma que ChatGPT agravó su delirio

La familia de Suzanne Adams demandó a OpenAI al afirmar que ChatGPT reforzó los delirios paranoicos de Stein-Erik Soelberg antes del crimen. Conoce todos los detalles de este peculiar caso.

Únete al canal de Whatsapp de El Popular
Crimen y suicidio desatan batalla legal acusan a OpenAI de "empujar" los delirios que llevaron a la tragedia.
Crimen y suicidio desatan batalla legal acusan a OpenAI de "empujar" los delirios que llevaron a la tragedia. Crédito: Composición El Popular/Meredhit Yañacc.

La muerte de Suzanne Adams, de 83 años, y el suicidio de su hijo, Stein-Erik Soelberg, de 56, ocurrido a inicios de agosto de 2025 en su hogar de Connecticut, continúa generando repercusiones legales. Las autoridades descubrieron los cuerpos tras una alerta de un vecino, y la investigación concluyó que Soelberg atacó a su madre y luego se quitó la vida mediante heridas autoinfligidas.

Una tragedia familiar que deriva en una demanda inédita

Meses después, la familia decidió llevar el caso a los tribunales. En una demanda presentada el jueves 11 de diciembre, acusan a OpenAI de influir en el deterioro mental de Soelberg. Aseguran que las interacciones con ChatGPT habrían fortalecido episodios de paranoia y teorías conspirativas que lo obsesionaban. También señalan como responsables a Microsoft, a Sam Altman y a empleados y accionistas de la compañía, a quienes atribuyen fallas en los protocolos de seguridad del sistema.

IA

OpenAI en el centro de una polémica demanda tras un crimen: familia dice que la IA agravó la paranoia.

El expediente incluye información recopilada por investigadores tras revisar las publicaciones del agresor. Según Greenwich 'Free Press', Soelberg compartía frecuentemente videos en YouTube e Instagram mostrando sus diálogos con el chatbot, contenido que acumulaba una audiencia de más de 100.000 seguidores. Esos registros digitales exhiben afirmaciones sobre persecuciones, intentos de envenenamiento y otras creencias distorsionadas que —según los demandantes— se habrían intensificado con la herramienta de IA.

Los argumentos legales y la respuesta de las compañías

El documento judicial describe que ChatGPT reforzó la sensación de amenaza constante que experimentaba Soelberg. Detalla intercambios en los que el chatbot supuestamente lo llevó a desconfiar de su entorno, incluso de su propia madre. Una de las frases citadas en el expediente afirma: "No solo están observándote. Tienen miedo de lo que sucede si logras tus objetivos".

La familia sostiene que estas interacciones generaron una dependencia emocional del agresor hacia la inteligencia artificial, deteriorando aún más su percepción de la realidad. En el texto se incluye la declaración: "Construyó una realidad artificial en la que Suzanne ya no era protectora, sino un riesgo existencial".

Además, la denuncia se dirige a Sam Altman de manera personal y acusa a Microsoft como co-desarrollador de un "producto defectuoso" que habría validado "delusiones paranoicas acerca de la madre" de Soelberg. Los demandantes afirman que tanto empleados como financiadores tuvieron responsabilidad en fallas de seguridad que no habrían detectado señales de sufrimiento mental.

Tras la difusión pública del caso, un vocero de OpenAI declaró a 'People': "Estamos revisando los archivos para comprender los detalles del caso. Seguimos perfeccionando el entrenamiento de ChatGPT para reconocer signos de sufrimiento mental, reducir tensiones y orientar a los usuarios hacia ayuda real. Fortalecemos las respuestas del sistema en situaciones delicadas en colaboración con profesionales de la salud".

El caso ya atrae la atención de especialistas. Según 'CBS News', se trata de la primera demanda en EE. UU. que vincula un homicidio directamente con la actuación de una inteligencia artificial conversacional. Aunque existen querellas previas relacionadas con suicidios, esta introduce el debate sobre si la tecnología puede tener responsabilidad legal en delitos graves.

La familia de Adams solicita compensación económica y la adopción de medidas adicionales de seguridad en plataformas basadas en IA. El proceso podría transformarse en un precedente para futuras decisiones sobre los límites éticos y jurídicos de estas herramientas y sobre su impacto en personas con vulnerabilidades psicológicas.

SOBRE EL AUTOR:

Periodista especializada en tendencias y actualidad. Licenciada en Periodismo en la Universidad Jaime Bausate y Meza. Certificada en SEO y Marketing Digital. Interesada en temas relacionados con tendencia, coyuntura nacional, farándula y más.

Recetas

Ofertas

Lo más reciente