TAPA DEL DÍA  OpenAI anunció este jueves un conjunto de medidas que buscan reforzar la seguridad de los menores en su plataforma de inteligencia artificial ChatGPT. Tras reportes y denuncias vinculadas a suicidios de adolescentes que mantenían conversaciones con la IA, la empresa incorporará controles parentales avanzados y trabajará junto a expertos en salud mental. La compañía informó que establecerá un Consejo de expertos sobre bienestar e inteligencia artificial y una Red Global de Médicos para definir protocolos de protección y directrices de uso seguro. Estos grupos tendrán como objetivo descubrir cómo la IA puede contribuir al bienestar de los usuarios, abordando temas sensibles como depresión, ansiedad, trastornos alimentarios y consumo de sustancias, con especial foco en la población adolescente. Entre las nuevas medidas, OpenAI implementará un enrutador en tiempo real que seleccionará el modelo de IA más adecuado según el contexto de la conversación. Si detecta que el usuario adolescente aborda temas que podrían indicar angustia o depresión, la conversación será derivada a modelos de pensamiento avanzados como GPT-5, que dedican más tiempo a procesar y ofrecer respuestas más reflexivas y beneficiosas. TAPA DEL DÍA Los controles parentales permitirán vincular cuentas de menores, establecer reglas de comportamiento que estarán activadas por defecto y gestionar funciones como la memoria y el historial de chats. Además, los padres recibirán notificaciones automáticas si el sistema detecta que el adolescente podría estar atravesando un momento de angustia aguda. Estas acciones se suman a los cambios ya realizados por OpenAI para mejorar la identificación de situaciones de crisis mental y emocional, bloqueando contenido de riesgo y facilitando el contacto inmediato con servicios de ayuda o familiares. La compañía reforzó estas medidas luego de la denuncia presentada por los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril, por el papel que ChatGPT pudo haber jugado en el suceso. Con esta iniciativa, OpenAI busca no solo mejorar la seguridad de sus usuarios más jóvenes, sino también generar un modelo de IA que acompañe el bienestar emocional de los adolescentes. La compañía remarcó que el desarrollo de la inteligencia artificial debe ir de la mano con la responsabilidad y la protección de los usuarios. Opinión pública: La medida ha sido recibida con aprobación por parte de expertos en tecnología y salud mental, quienes destacan que la incorporación de alertas tempranas y controles parentales puede marcar un antes y un después en la forma en que se protege a los menores frente a riesgos asociados al uso de la IA. TAPA DEL DÍA