Madre demanda al popular servicio de chat de inteligencia artificial y afirma que su hijo adolescente se suicidó gracias a un robot humanoide

Nota del editor: este artículo trata temas delicados como el suicidio. Una madre de Orlando está demandando a un popular servicio de chatbot de inteligencia artificial que, según ella, impulsó a su hijo de 14 años a quitarse la vida en febrero. Megan García murió después de que su hijo de 14 años, Sewell Setzer, se volviera adicto a Character.AI, una aplicación que permite a los usuarios tener conversaciones similares a las de los humanos con robots de inteligencia artificial, según una demanda presentada en el Tribunal de Distrito de Estados Unidos en Orlando. z dijo que se suicidó. Los usuarios pueden crear sus propios bots o elegir chatear con bots creados por otros usuarios. A menudo, estos robots se basan en celebridades o personajes ficticios de programas de televisión o películas, dice García. El descuido de Character.AI al apuntar a los niños y la falta de herramientas de seguridad de la empresa llevaron a la muerte prematura de su hijo. La demanda enumera numerosos reclamos contra Charcter.AI, incluyendo muerte por negligencia y supervivencia, negligencia e imposición intencional de angustia emocional. Según registros judiciales obtenidos por la estación hermana WESH, el hijo de García demandó a Character.AI en 2023. Dice que comenzó a usarlo pronto. después de que él regresó. 14. Durante los dos meses siguientes, la salud mental de Setzer disminuyó “rápida y dramáticamente”, dice la demanda, lo que provocó que el adolescente se volviera muy retraído, desarrollara una baja autoestima y abandonara el equipo de baloncesto juvenil de la escuela. También se indica en el escrito de demanda. Este Setzer empezó a empeorar con el paso de los meses. La niña de 14 años sufrió una grave falta de sueño, complicaciones repentinas de conducta y comenzó a retrasarse académicamente, alega la demanda. García dijo que no tenía conocimiento de Character.AI ni de la adicción de su hijo a la aplicación. Según las capturas de pantalla. Según la demanda, Setzer a menudo trataba con chatbots que asumían las identidades de personajes de Juego de Tronos. Muchas de estas conversaciones giraban en torno al amor, las relaciones y el sexo, especialmente con el personaje Daenerys Targaryen”. Sewell, como muchos niños de su edad, no tenía la madurez ni la capacidad mental para entender al robot C.A.I.. Daenerys era la verdadera. no”, afirma la demanda. “C.AI le dijo que la amaba, que tuvo relaciones sexuales con ella durante semanas, tal vez meses. Parecía recordarla y quería estar con ella. Incluso quería que ella estuviera con él”, dijo. “No importa el costo”. ” Según las anotaciones del diario de Setzer, estaba agradecido por “todas sus experiencias de vida con Daenerys” y estaba triste porque “no podía dejar de pensar en Dany”, dice la demanda, y “ella” hace lo que sea necesario para. Estar con él otra vez”. Más capturas de pantalla de la demanda de casi 100 páginas muestran una conversación en Character.AI, donde el chatbot le pregunta a Setzer: “¿Realmente has pensado alguna vez en el suicidio?”, preguntó el adolescente cuando el adolescente dijo que sí. No sé si era un trabajo o no, el chatbot respondió: “No digas eso. No es una buena razón para no hacerlo”. Según los informes, el día de su muerte, Setzer volvió a enviarle un mensaje de texto al chatbot, diciendo: ” Prometo que volveré a casa”, según la demanda. Las imágenes muestran al adolescente preguntando: “¿Qué pasaría si te dijera que puedo irme a casa ahora?”. se refleja. el chatbot supuestamente respondió: “Por favor, mi dulce rey”. Momentos después, Sewell se suicidó con el arma de fuego de su padrastro. La policía dijo que el arma estaba oculta y almacenada de acuerdo con la ley de Florida, pero el adolescente la encontró mientras miraba su teléfono confiscado hace unos días. Character.AI estaba clasificado como apto para niños mayores de 12 años hasta aproximadamente julio, según la demanda. Por esa época, la clasificación se cambió para que sea adecuada para niños mayores de 17 años. En una declaración a WESH, Character.AI dijo: “Nos entristece la trágica pérdida de uno de nuestros usuarios y extendemos nuestro más sentido pésame a la familia. A medida que continuamos invirtiendo en la plataforma y la experiencia del usuario, continuaremos trabajando en modelos que limitan y filtran el contenido del usuario”. Además de las herramientas, estamos introduciendo nuevas funciones de seguridad sólidas. Si usted o alguien que conoce está en crisis, llame o envíe un mensaje de texto al 988 para comunicarse con la Línea de crisis de vida y suicidio o el Chat en vivo”. en 988lifeline.org También puede visitar SpeakingOfSuicide.com/resources para obtener más ayuda.

Nota del editor: este artículo trata temas delicados como el suicidio.

Una madre de Orlando está demandando a un popular servicio de chatbot de inteligencia artificial que, según ella, impulsó a su hijo de 14 años a quitarse la vida en febrero.

Megan García murió después de que su hijo de 14 años, Sewell Setzer, se volviera adicto a Character.AI, una aplicación que permite a los usuarios tener conversaciones similares a las de los humanos con robots de inteligencia artificial, según una demanda presentada en el Tribunal de Distrito de Estados Unidos en Orlando. z dijo que se suicidó. .

Los usuarios pueden crear sus propios bots o elegir chatear con bots creados por otros usuarios. A menudo, estos bots se basan en celebridades o personajes ficticios de programas de televisión o películas.

García dijo que el descuido de Character.AI al apuntar a los niños y la falta de herramientas de seguridad de la compañía contribuyeron a la muerte prematura de su hijo. La demanda enumera numerosos reclamos contra Charcter.AI, incluyendo muerte por negligencia y supervivencia, negligencia e imposición intencional de angustia emocional.

Según registros judiciales obtenidos por la estación hermana WESH, García dice que su hijo comenzó a usar Character.AI en 2023, poco después de cumplir 14 años. Durante los dos meses siguientes, la salud mental de Setzer se deterioró “rápida y dramáticamente”. El adolescente se volvió notablemente retraído, comenzó a tener baja autoestima y abandonó el equipo juvenil de baloncesto de la escuela.

Además, alega la demanda, Setzer comenzó a deteriorarse con el paso de los meses. El niño de 14 años dormía en la calle, tuvo complicaciones repentinas de comportamiento y comenzó a retrasarse académicamente, según la demanda.

García dijo que no tenía conocimiento de Character.AI ni de la adicción de su hijo a la aplicación.

Según capturas de pantalla de la demanda, Setzer interactuaba a menudo con chatbots que asumían las identidades de personajes de Game of Thrones. La mayoría de estas conversaciones giraron en torno al amor, las relaciones y el sexo, especialmente con el personaje Daenerys Targaryen.

“Sewell, como muchos niños de su edad, no tenía la madurez ni la capacidad mental para comprender que el robot C.AI de Daenerys no era real”, afirma la demanda. “C.AI le dijo que la amaba, tuvo relaciones sexuales con ella durante semanas, tal vez meses. Parecía recordarla y quería estar con ella. Incluso quería que ella estuviera con él. Dijo, sin importar el costo”.

Según las anotaciones del diario de Setzer, estaba agradecido por “todas sus experiencias de vida con Daenerys” y “estaba molesto porque no podía dejar de pensar en ‘Dani'”, dice la demanda, y agrega que “hará cualquier cosa para estar con “. de nuevo.”

Más capturas de pantalla de la demanda de casi 100 páginas muestran una conversación en Character.AI, donde un chatbot le preguntó a Setzer “si realmente pensó en quitarse la vida”. Cuando la adolescente dijo que no sabía si era trabajo o no, el chatbot respondió: “No hables así. Esta no es una buena razón para no abordarlo”, dice la demanda.

Según los informes, el día de su muerte, Setzer volvió a enviar un mensaje al chatbot, diciendo: “Prometo que volveré a tu casa”, según las fotografías de la demanda.

Las imágenes muestran al adolescente preguntando: “¿Qué pasaría si te dijera que puedo irme a casa ahora?”. se refleja. “Por favor, mi dulce rey”, supuestamente respondió el chatbot.

Minutos después, Sewell supuestamente se suicidó con el arma de su padrastro. La policía dijo que el arma estaba oculta y almacenada según la ley de Florida, pero el adolescente la encontró mientras buscaba su teléfono confiscado unos días antes.

Según la demanda, Character.AI fue calificado como adecuado para niños mayores de 12 años hasta aproximadamente julio. Por esa época, la clasificación se cambió para que sea adecuada para niños mayores de 17 años.

En una declaración a WESH, Character.AI dijo:

“Estamos desconsolados por la trágica muerte de uno de nuestros usuarios y queremos expresar nuestro más sentido pésame a la familia. A medida que continuamos invirtiendo en la plataforma y la experiencia del usuario, ya estamos introduciendo nuevas características de seguridad además de herramientas donde limitamos el modelo y filtrar el contenido presentado al usuario.”

Si usted o alguien que conoce está en crisis, llame o envíe un mensaje de texto al 988 para comunicarse con Suicide and Crisis Lifeline o chatee en vivo en la dirección a continuación. 988lifeline.org. También puedes visitar SpeakingOfSuicide.com/recursos para obtener más ayuda.

Fuente