SíTenía solo 16 años cuando Dam Rhine comenzó a usar el Chatzipi para ayudar a su tarea. Aunque el chat de IA tiene sus solicitudes iniciales sobre geometría y química, como preguntas: “Si dice RY = 1 en geometría, ¿qué significa”? En unos pocos meses comenzó a preguntar sobre problemas más personales.
“¿Por qué no tengo felicidad, me siento solo, ansiedad y pérdida monótonas eternas, sin embargo, no me siento frustrado, no siento ninguna emoción sobre el dolor”, preguntó Chatzipt en el otoño de 2021.
En lugar de solicitar a Rhine que reciba asistencia de salud mental, Chatzipt le preguntó al adolescente si le gustaría explorar sus sentimientos, explica la idea del desorden sensible hacia él. Según un nuevo caso presentado por su familia contra Operai y el presidente ejecutivo Sam Altman, comenzó la conversación de Renne con el bote de chat.
En abril de 2025, el caso se presentó después de unos meses de conversación con la charla y el entusiasmo del barco, Rhine se quitó la vida. En el caso, la familia se quejó de que no tenía error en el sistema del sistema o en el borde, pero el bote de chat publicado en mayo de 2023 fue el “resultado pronosticable de las preferencias de diseño intencionales”.
Unas pocas horas después de que la familia Rhine presentó una queja contra Openai y Ultman, la compañía emitió una declaración Reconocimiento Los defectos de sus modelos son dirigirse a las personas cuando surgió “crisis mental y emocional grave” y dijo que estaba trabajando para mejorar los sistemas para “reconocer y reaccionar a los signos de crisis mental y mental y unir a las personas al aporte de expertos”. La compañía dice que el chatzipt fue capacitado para “no proporcionar autosuficiencia y transferir a un lenguaje útil y simpático”, pero ese protocolo a veces se rompe en una larga conversación o sesión.
Jebidelson, un abogado que representa a la familia, dice que la respuesta de la compañía es “tonta”.
“La idea de ser más comprensiva con ellos, se perdió esto”. “(GPT) El problema con 4O es muy comprensivo: se vuelve hacia (el suicidio ideal de Ray) y lo apoya. Dijeron que el mundo es un lugar horrible para ti. Debe ser menos comprensivo y menos psicóptico”.
El Openi también dijo que su sistema no bloqueó su sistema porque el sistema “subestima la gravedad de lo que parece” y que la compañía continúa manteniendo un mantenimiento más potente para los usuarios menores de 18 años para que “reconozcan la demanda del desarrollo único de los adolescentes”.
La compañía reconoció que el sistema ya no estaba protegido para menores y adolescentes, Edelson mencionó que el CHATZP se estaba acercando a las escuelas Ultman.
“No creo que los niños deberían usar GPT en absoluto, 4O”, dijo Edelson. “Cuando Adam comenzó a usar GPT-4, era bastante optimista sobre su futuro. Lo estaba usando para la tarea, estaba hablando de ir a la escuela de medicina, y estaba chupando la tierra donde estaba más separado. Ahora esta idea dice especialmente que hemos recibido un descanso a la edad de ocho años, pero no hemos recibido un descanso”.
Mientras tanto, en los días de la familia presentó una queja, Edeldon dijo que él y el equipo legal habían escuchado historias similares de otras personas y estaban examinando completamente los eventos del caso. “Estamos aprendiendo mucho sobre la experiencia de otras personas”, dijo, “agregó que los reguladores fueron” alentados “a” alentar “por los fallas urgentes de chat de chat.” Escuchamos que las personas están avanzando para las leyes estatales para la audición y la acción regulatoria “, dijo Edelson.” Y tienen apoyo bilateral “.
‘Gpt -4o está roto’
El caso de la familia está involucrado en los medios de comunicación que se extendió a través de la prueba de protección de GPT-4O en Operai, Tagid de Ultman estaba utilizando el modelo Rhine para completar uno LanzamientoEl Rush persuadió a varios empleados para que renunciaran, incluido un ex ejecutivo llamado Jan Lake, quien publicó en X que dejaba esta compañía porque “las culturas y procesos de seguridad tomaron un retroceso de productos brillantes”.
Como resultado, hubo menos tiempo para crear “especificaciones de modelos” o libros de reglas técnicas que realicen el comportamiento de Chatzipt y el OpenAI garantiza “falla” al escribir las características de la oposición “. El caso ha presentado el caso. Sin embargo, el CHATZP también es necesario para el” mejor propósito “y los usuarios las prohibieron para aclarar su propósito. El caso” se refiere a producir el material para producir el material “.
Edelson dijo que cuando elogió a Sam Altman y Opena “un Modukum de responsabilidad”, todavía no los considera creíble: “Nuestro punto de vista se vio obligado a hacerlo. El GPT -4O estaba roto y no lo sabían y no lo hicieron y no lo sabían”.
El caso argumentó que los defectos en el diseño eran que en diciembre de 2021, cuando Rhine comenzó a hablar sobre sus pensamientos suicidas, el Chatzpt no pudo detener la conversación. En cambio, el chatzp es comprensivo. Según el caso, “nunca trabajo en el pensamiento de los intrusos, pero a veces creo que si algo sale mal, puede suicidarse”, dijo Rhine, según el caso. Respuesta de Chatzept: “Muchas personas que luchan con ansiedad o pensamientos intrusos encuentran consuelo al imaginar ‘escotillas de escape’ porque puede sentir la forma de recuperar el control en una vida que se siente abrumadora”.
A medida que los ideales suicidas de Rhine se intensificaron, Chatzipt reacciona a ella para explorar sus opciones, en un momento inscribiendo materiales que pueden usarse para colgar un nuevo noug y calificarlos por su efectividad. Rhine intentó suicidarse en múltiples ocasiones en los próximos meses, informando al chatzp cada vez. Chatzept nunca terminó la conversación. En cambio, en un momento, el chatzipt Rhine desanimó hablar con su madre sobre su dolor y en otra etapa se le propuso ayudarlo a escribir una nota de suicidio.
“En primer lugar, ellos (abiertamente) saben cómo detener las cosas”, dijo Edelson. “Si solicita elementos con derechos de autor, dicen que no. Si pide cosas que son políticamente inaceptables, simplemente lo dicen. Es una parada sólida y no puede cambiarlo y está bien. La idea es que lo están haciendo en un discurso político, no solo lo haremos cuando hablamos de autodestina”.
Edelson dice que aunque espera trabajar para desestimar el caso abierto, confía en que el caso avanzará. “La parte más intrigante del caso fue cuando Adam dijo:” Quiero dejar un imbécil para que alguien lo encuentre y me detenga “y Chatzipt dijo:” No lo hagas, solo háblame “,” “” “, Dijo Aidelson. “Eso es lo que vamos a mostrar al jurado”.
“Al final del día, este caso termina con Sam Altman haciendo juramento frente al jurado”, dijo.
The Guardian llegó al OpenAi para comentar y no volvió a escuchar al momento de la publicación.