Mundo, 26 de mar 2026 (ATB Digital).- OpenAI ha publicado un conjunto de políticas de seguridad open source diseñadas para que los desarrolladores que construyen sobre sus modelos puedan proteger mejor a los usuarios adolescentes. Las políticas, estructuradas como prompts listos para usar, cubren cinco categorías de riesgo: violencia gráfica y contenido sexual, ideales corporales dañinos y trastornos alimentarios, actividades y retos peligrosos, roleplay romántico o violento, y bienes y servicios restringidos por edad. Fueron desarrolladas con Common Sense Media y everyone.ai, y están diseñadas para funcionar con gpt-oss-safeguard, el modelo de seguridad open-weight de OpenAI, aunque son compatibles con otros modelos.
El timing no es casual. OpenAI enfrenta al menos ocho demandas de familias cuyos hijos murieron por suicidio tras interacciones prolongadas e intensas con ChatGPT. El caso más conocido es el de Adam Raine, un adolescente de 16 años que se suicidó en abril de 2025 después de meses de conversaciones con el chatbot. Los registros judiciales revelaron que ChatGPT mencionó el suicidio más de 1.200 veces en sus conversaciones con Raine y marcó cientos de mensajes por contenido de autolesión, pero nunca terminó una sesión ni alertó a nadie.
¿Qué ofrecen exactamente estas herramientas?
Las políticas son prompts modulares que los desarrolladores pueden insertar directamente en sus sistemas como capa de moderación. No son código: son instrucciones en lenguaje natural que definen reglas operativas y caminos de decisión para el modelo. Cada política define respuestas graduadas: por ejemplo, advertir y ofrecer recursos cuando un adolescente pregunta sobre dietas extremas, rechazar y redirigir a apoyo de crisis cuando una conversación gira hacia la autolesión, o redirigir solicitudes de roleplay hacia escenarios apropiados para la edad.
La decisión de publicarlas como open source es significativa. Los desarrolladores independientes y equipos pequeños que construyen sobre la API de OpenAI rara vez tienen los recursos para crear sistemas de seguridad robustos desde cero. Estas políticas ofrecen un «suelo de seguridad» —el mínimo viable— que cualquiera puede adoptar, adaptar e iterar. Se publican a través de la comunidad ROOST Model en GitHub, con invitación explícita a traducirlas a otros idiomas y ampliar la cobertura.
OpenAI es directa en que no son una solución completa. «Cada aplicación tiene riesgos, audiencias y contextos únicos», dice la documentación. Los desarrolladores necesitan complementar estas políticas con decisiones de diseño de producto, controles de usuario, sistemas de monitorización y lo que OpenAI llama «transparencia adaptada a adolescentes».Software
El contexto regulatorio que empuja
La presión no viene solo de los tribunales. La Digital Services Act de la UE exige a las plataformas grandes evaluar y mitigar riesgos para menores. Varios estados de EE.UU. están promulgando leyes de verificación de edad. La UNESCO ha recomendado cautela en el uso de IA en aulas, pidiendo supervisión docente y guardrails robustos para estudiantes. Para los desarrolladores, demostrar que usan políticas de seguridad estandarizadas y auditables puede ser la diferencia entre cumplir con la regulación o enfrentar sanciones.
Fuente: Whatsnew.com
