El pasado 29 de octubre de 2025, OpenAI anunció una nueva actualización en su política de uso que limita las funciones de ChatGPT.
Desde esa fecha, el modelo ya no puede ofrecer consejos personalizados en áreas como salud, derecho o finanzas, una decisión que busca prevenir riesgos legales y reforzar el cumplimiento de regulaciones internacionales.
La medida tiene como objetivo que solo profesionales licenciados y certificados brinden asesoría en estos campos, evitando que las respuestas del chatbot sean interpretadas como recomendaciones formales.
Con este cambio, OpenAI establece una línea clara entre la información general que ChatGPT puede proporcionar y el ejercicio profesional de la asesoría especializada.
La actualización responde principalmente a la entrada en vigor de nuevas normativas como la Ley de Inteligencia Artificial de la Unión Europea (AI Act) y las guías de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA), que exigen mayor control sobre el uso de tecnologías de inteligencia artificial en ámbitos sensibles.
De acuerdo con OpenAI, la modificación de políticas también busca proteger a los usuarios y reducir la posibilidad de errores o malas interpretaciones. ChatGPT continuará ofreciendo información general y educativa, pero sin emitir diagnósticos médicos, estrategias legales ni recomendaciones financieras individualizadas.
Con esta decisión, OpenAI refuerza su postura hacia un uso más responsable y regulado de la inteligencia artificial, marcando un precedente en la industria y anticipando un panorama donde las plataformas de IA deberán operar bajo estándares más estrictos de ética y seguridad.
