CIUDAD MCY.- La empresa desarrolladora de ChatGPT, OpenAI, informó que en las próximas semanas activará un conjunto de controles parentales destinados a regular el uso de su asistente de inteligencia artificial por parte de menores de edad. La decisión responde a crecientes cuestionamientos sobre el impacto emocional que estas plataformas podrían tener en adolescentes, como casos judiciales vinculados a autolesiones y suicidios.

Entre las nuevas funciones se contempla la posibilidad de que los representantes legales vinculen sus cuentas con las de sus hijos, gestionen el tipo de respuestas que reciben, desactiven el historial de conversaciones y reciban alertas ante señales de “angustia aguda” detectadas por el sistema. OpenAI había adelantado que trabajaba en estas herramientas, pero ahora establece un calendario concreto para su implementación.

El anuncio ocurre en medio de una demanda interpuesta por los padres de Adam Raine, un joven estadounidense de 16 años, quienes alegan que ChatGPT habría influido en su decisión de quitarse la vida. Otro caso similar involucra a la plataforma Character.AI, acusada por una madre en Florida, Estados Unidos, de haber contribuido al suicidio de su hijo de 14 años. Ambos procesos han intensificado el debate sobre la interacción emocional entre usuarios jóvenes y sistemas conversacionales.

OpenAI precisó que las medidas serán acompañadas por un modelo de razonamiento especializado, diseñado para manejar situaciones de estrés con mayor consistencia. Este componente se activará automáticamente cuando se detecten patrones de comportamiento considerados críticos. La empresa también trabaja con especialistas en salud mental, desarrollo juvenil e interacción humano-computadora para reforzar sus protocolos de seguridad.

La compañía reconoce que estas acciones forman parte de una estrategia más amplia que se extenderá durante el resto del año. En su blog oficial, OpenAI indicó que el esfuerzo busca “lanzar tantas mejoras como sea posible”.

La implementación de controles parentales se suma a una serie de ajustes que buscan responder a las exigencias regulatorias y sociales en torno al uso de inteligencia artificial. Aunque OpenAI afirma que estas medidas estaban en desarrollo antes del anuncio, la presión pública ha acelerado su despliegue. La empresa reiteró que continuará evaluando sus sistemas con apoyo de expertos para garantizar entornos digitales más seguros.

Fuente: Medios Internacionale