En los últimos meses ha circulado un tema que ha generado interés dentro del sector legal, tecnológico y entre profesionales que utilizamos herramientas de inteligencia artificial en nuestro día a día: la actualización de las políticas de uso de OpenAI que limita la capacidad de ChatGPT para ofrecer asesoría legal, médica o financiera personalizada. Esta modificación, recogida en las políticas de uso actualizadas por OpenAI el 29 de octubre de 2025, tiene implicaciones importantes tanto para usuarios como para profesionales que trabajamos con IA y con clientes reales.
¿Qué ha cambiado exactamente?
La política de uso revisada por OpenAI establece que sus herramientas no deben utilizarse para proporcionar asesoría personalizada que requiera una licencia profesional, como es el caso del derecho, la medicina o las finanzas, sin la participación apropiada de un profesional acreditado. Esto significa que la IA puede seguir aportando explicaciones sobre conceptos, principios o definiciones generales, pero no puede reemplazar el criterio ni la experiencia de un abogado, médico o asesor financiero con licencia.
Este cambio no limita el acceso a información general —por ejemplo, explicaciones sobre qué es una cláusula contractual o qué implica una ley concreta—, pero sí prohíbe que la inteligencia artificial actúe como consejero legal personalizado en situaciones concretas sin supervisión humana.
¿Por qué lo ha hecho OpenAI?
La principal razón de esta actualización se fundamenta en dos pilares:
1. Seguridad del usuario y responsabilidad
La IA puede generar información incorrecta o imprecisa si se le solicita una recomendación específica. En ámbitos sensibles como el derecho, los errores pueden tener consecuencias graves (decisiones incorrectas, pérdida de derechos, obligaciones mal interpretadas). Al reforzar estos límites, OpenAI busca evitar que los usuarios confíen en respuestas que parecen profesionales pero no lo son.
2. Reducción de responsabilidad legal
Permitir que una IA ofrezca asesoría específica sin supervisión humana puede exponer tanto a OpenAI como a sus usuarios a riesgos legales y regulatorios. El cambio también responde a un entorno normativo global en transformación, donde algunos países están empezando a exigir límites claros al uso de IA en áreas reguladas —como ocurre con la Ley de IA de la Unión Europea, que impulsa estándares de seguridad y responsabilidad.
¿Qué significa esto para la práctica legal?
Para despachos, consultoras y profesionales del derecho, esta actualización no es necesariamente negativa. De hecho, trae consigo beneficios claros:
✔ Refuerza la necesidad del criterio humano
La IA sigue siendo útil para tareas como:
- Generar resúmenes de textos legales
- Explicar conceptos jurídicos
- Ofrecer ejemplos de cláusulas o procesos generales
Siempre bajo la supervisión de un profesional que puede validar y contextualizar esa información.
✔ Ayuda a diferenciar roles
El sistema deja claro que la tecnología es una herramienta de apoyo, no un sustituto del abogado. Esto impulsa a los profesionales a aprovechar la IA para tareas complementarias, liberando tiempo para el trabajo experto que realmente aporta valor al cliente.
✔ Fomenta una colaboración IA + profesional
Un despacho moderno puede combinar:
- La velocidad y capacidad de procesamiento de la IA para resúmenes, búsquedas y apoyo documental
- Con la experiencia y la responsabilidad legal del profesional humano para emitir conclusiones, decisiones y recomendaciones personalizadas
¿La IA ya no puede ayudar con temas legales?
No exactamente. La política no elimina el acceso a información general o educativa sobre temas jurídicos. Puedes seguir pidiendo a ChatGPT que explique qué es una cláusula de arrendamiento, qué implica una LOPD, o cómo funcionan ciertos procesos. Lo que sí queda prohibido es que la IA dé ese asesoramiento concreto sobre tu caso específico, personalizado, como si fuera un abogado humano sin licencia supervisándolo.
Esto no es una imposición a los usuarios, sino una clarificación de que la IA no sustituye la figura del profesional: la tecnología apoya, pero el criterio profesional certifica y asume responsabilidad.
IA y profesionales humanos: ¿enemigos o aliados?
Lejos de representar una amenaza, estas políticas refuerzan una idea fundamental: la inteligencia artificial es una herramienta poderosa, pero necesita del juicio crítico, ético y profesional de una persona real para ser efectivamente útil en ámbitos regulados.
En el ámbito legal, por ejemplo:
- La IA puede analizar grandes cantidades de texto legal en segundos
- Puede sugerir modelos o ejemplos basados en normas
- Puede agilizar tareas repetitivas
Pero solo un abogado puede interpretar, adaptar y aplicar ese conocimiento a un caso concreto, con responsabilidad y rigor.
Este equilibrio es el futuro del ejercicio profesional: tecnología que potencia la eficiencia y humanos que garantizan calidad, precisión y cumplimiento normativo.
¿Qué oportunidades abre este cambio?
Para consultoras y despachos como PymeLegal, esta actualización es una oportunidad para:
- Reforzar la propuesta de valor como expertos legales con criterio propio
- Integrar IA como herramienta interna de apoyo y no como sustituto de la asesoría
- Ofrecer a nuestros clientes asesoramiento certificado, personalizado y con responsabilización humana
Mientras algunas herramientas reducen la profundidad de su alcance, los profesionales que combinamos tecnología + experticia humana real ganamos credibilidad y relevancia.
Porque al final, el conocimiento es universal, pero la responsabilidad es personal y profesional.
La nueva política de OpenAI representa una evolución importante en el uso responsable de la inteligencia artificial. Más allá de limitar la IA, llama a reconocer algo que siempre fue cierto: la tecnología es poderosa, pero el criterio profesional no es sustituible.
Y en sectores como el derecho, esto es clave para proteger a las personas y las organizaciones, garantizando información fiable, segura y con responsabilidad real detrás.