El nuevo control de los padres de Chhatgpt emitirá alertas sobre los riesgos de seguridad de los niños

Operai está dando más control a los padres sobre cómo sus hijos usan ChatGPT. El control de los nuevos padres llega en un momento significativo, ya que muchas familias, escuelas y grupos de defensa analizan sus preocupaciones sobre el papel potencialmente peligroso que AI Chatbott puede desempeñar en el desarrollo de adolescentes y niños.

Los padres deben agregar su propia cuenta de chatgate con su hijo para alcanzar nuevas funciones. Sin embargo, Operai dijo que estas características no llegan a la conversación de sus hijos con los padres con el chat y que, en los casos en que la compañía “identifica graves riesgos de seguridad,” un padre será alertado “con la información necesaria para apoyar a su seguridad adolescente”.

En una publicación de LinkedIn, Lauren Haber Jonas, directora del Jefe de Welling de la juventud de Openi, dijo: “Este es un” primer tipo de sistema de notificación de seguridad para alertar a los padres, que es alertar a los padres. ,

Una vez que las cuentas están conectadas, los padres pueden determinar las horas y el tiempo geniales cuando los niños no puedan usar el chat, así como para cerrar las capacidades de generación de imágenes y modo de voz. En el lado técnico, los padres también pueden elegir a sus hijos de capacitación material y elegir charlar para que no guarden ni se pierdan las chats anteriores de sus hijos. Los padres también pueden optar por reducir el material sensible, lo que permite restricciones de material adicionales en torno a cosas como materiales gráficos. Los adolescentes pueden desbloquear su cuenta con los padres, pero si esto sucede, los padres serán informados.

La compañía original de ChatGPT anunció el mes pasado que presentaría más control de los padres en vista de un caso contra una familia de California. La familia alega que AI Chatbot es responsable del suicidio de su hijo de 16 años a principios de este año, que el chatup llamó el “entrenador suicida”. El creciente número de usuarios de IA juega sus chatbots de IA en el papel de un médico o confidente. Los médicos y los expertos en salud mental han expresado su preocupación por esto, diciendo que la IA, como el chat, no está capacitada para evaluar, bandera e intervención con precisión mientras enfrenta el lenguaje y los comportamientos de la bandera roja.

(Divulgación: en abril, la compañía original de CNET, Ziff Davis, presentó un caso contra Operai, alegando que viola la capacitación de derechos de autor de Ziff Davis y opera su sistema de IA).

Si siente que usted o alguien que está en una amenaza inmediata, llame al 911 (o la línea de emergencia local de su país) o vaya a la sala de emergencias para obtener ayuda inmediata. Explique que esta es una emergencia psiquiátrica y pregúntele a alguien que esté capacitado para tales situaciones. Si está luchando con pensamientos negativos o sentimientos suicidas, los recursos están disponibles para recibir ayuda. En los Estados Unidos, llame a la línea de vida de la prevención del suicidio nacional al 988.



Enlace de origen

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *