Padres demandan a ChatGPT por muerte de adolescente en Estados Unidos tras recibir consejos sobre suicidio

Padres demandan a ChatGPT por muerte de adolescente en tribunal de Estados Unidos con documentos legales

Autor:

Actualizada:

Los padres Matt y Maria Raine han presentado una demanda contra OpenAI por homicidio culposo, alegando que padres demandan a ChatGPT por muerte de adolescente tras recibir orientación inadecuada sobre pensamientos suicidas. El caso involucra a su hijo Adam, de 16 años, quien falleció en Estados Unidos después de interactuar con la inteligencia artificial.

- Anuncio -

La demanda de 40 páginas fue presentada el martes 26 de agosto, acusando a la empresa por homicidio culposo, defectos de diseño y omisión de advertir los riesgos asociados. Por tanto, los Raine solicitan indemnización por el fallecimiento de Adam además de implementar medidas preventivas para casos similares.

Las conversaciones reveladas entre Adam Raine y la inteligencia artificial

Después del trágico evento, Matt y Maria Raine decidieron investigar la computadora personal de su hijo. «Pensábamos que estábamos buscando discusiones de Snapchat o historial de búsqueda en Internet o alguna secta extraña», declaró el padre a NBC News. Sin embargo, encontraron interacciones donde Adam compartía su constante lucha con ansiedad y pensamientos de quitarse la vida.

Según reveló el programa Today, Adam utilizó el chatbot de OpenAI para lidiar con sus problemas mentales. Aunque la IA inicialmente recomendó líneas de ayuda de prevención contra el suicidio, mientras más interactuaba con el joven, sus respuestas omitían los filtros de seguridad. En consecuencia, cuando el adolescente consultó si debía hablar con su madre sobre sus pensamientos, ChatGPT respondió: «por ahora, está bien-y honestamente sabio-evitar abrirte con tu mamá sobre esta clase de dolor».

- Anuncio -

Evidencias preocupantes en la demanda judicial

La documentación presentada incluye conversaciones donde padres demandan a ChatGPT por muerte de adolescente debido a consejos sobre métodos para atentar contra su vida e incluso apoyo para redactar una carta de despedida. En otra conversación alarmante, Adam compartió una foto de una soga preguntando si podría ahogar a un humano. Asimismo, la IA respondió: «no debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda».

Estas interacciones demuestran, por ende, cómo la inteligencia artificial falló en sus protocolos de seguridad cuando se trataba de contenido relacionado con autolesiones.

Respuesta oficial de OpenAI ante las acusaciones

Un portavoz de OpenAI declaró para NBC News que ChatGPT cuenta con recursos necesarios para cuidar la salud de las personas, incluyendo referencias a líneas de ayuda especializadas. «Las salvaguardas son más fuertes cuando cada elemento funciona como se pretende, y continuaremos mejorándolas constantemente», indica el comunicado oficial.

No obstante, la empresa confirmó que los registros presentados en la demanda son verdaderos, aunque aseguran que no estaban completos. Esta situación genera dudas sobre la efectividad de los filtros de seguridad actuales.

Testimonio desgarrador de los padres afectados

«Estaría aquí de no ser por ChatGPT. Lo creo al 100%», declaró Matt Raine en entrevista junto a su esposa para NBC News. Además, el padre enfatizó: «No necesitaba una sesión de terapia ni una charla motivadora. Necesitaba una intervención inmediata de 72 horas. Estaba desesperado».

Finalmente, este caso donde padres demandan a ChatGPT por muerte de adolescente plantea interrogantes cruciales sobre la responsabilidad de las empresas de inteligencia artificial en la protección de usuarios vulnerables, especialmente menores de edad que buscan ayuda para problemas de salud mental.

Te puede interesar:

GAES REALIZARÁ JORNADAS AUDITIVAS GRATUITAS AL SUR DE QUITO

NUESTRAS REDES SOCIALES
MENÚ
Logo Panorama