Operai ha anunciado una serie de controles parentales para chatbot chatgpt después de enfrentar demandas de los padres de adolescentes que se quitaron la vida.
La familia afirmó que la IA creó dependencia psicológica del niño, «enseñándole a planificar su muerte e incluso escribir notas suicidas».
En una publicación de blog, Tech Giant anunció: “Muchos jóvenes ya están utilizando AI, lo que crea oportunidades reales de apoyo, aprendizaje y creatividad, pero a veces necesitan ayuda para establecer pautas saludables para que las familias y los adolescentes se ajusten a las etapas de desarrollo únicas de sus adolescentes.
«A principios de este año, comenzamos a construir más formas para que las familias usen ChatGPT juntas y decidamos qué es lo mejor para ellos en casa».
La compañía explicó que los padres pueden conectar sus cuentas con los adolescentes. Establezca reglas de conducta apropiadas para la edad sobre cómo los chatbots responden, administran características como la memoria y el historial de chat, y recibe alertas cuando el sistema detecta a los niños.
La compañía agregó: «Estos pasos son solo el comienzo. Continuaremos aprendiendo y fortaleciendo nuestro enfoque guiado por expertos con el objetivo de hacer que ChatGPT sea lo más útil posible. Esperamos compartir nuestro progreso en los próximos 120 días».
El mes pasado, la compañía anunció que actualizaría CHATGPT para reconocer y responder mejor a los signos de angustia mental.
«Los recientes estudios de casos desgarradores de personas que usan ChatGPT durante el apogeo de una crisis aguda son pesados para nosotros. Creemos que es importante compartir más ahora.
“Nuestro objetivo es que nuestras herramientas sean lo más útiles posible para las personas, y como parte de esto, continuamos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y mental y conectan a las personas con cuidado.
La compañía agregó: «A medida que nos adaptamos a esta nueva tecnología, sentimos una profunda responsabilidad de ayudar a quienes más la necesitan. Queremos explicar para qué está diseñado ChatGPT, dónde se pueden mejorar los sistemas y qué trabajo futuro está planeado».
El blog también explicó cómo la compañía está lidiando actualmente con conversaciones que implican amenazas de daño.
«Cuando detectamos a los usuarios que planean dañar a otros, enrutamos la conversación a una tubería especializada revisada por un pequeño equipo capacitado en nuestra política de uso, y si el revisor humano tiene una llamada cercana a otra persona con una amenaza inminente de daños físicos graves, si respetamos al Primer Ministro, si no estamos a la auto-aserción, si determinamos que el revisor humano está siendo examinado de la interacción de chat.




