OpenAI i la nova política d’assessorament legal: més claredat, més seguretat i més valor per als professionals


En els darrers mesos ha circulat un tema que ha generat interès dins del sector legal, tecnològic i entre els professionals que utilitzem eines d’intel·ligència artificial en el nostre dia a dia: l’actualització de les polítiques d’ús d’OpenAI, que limita la capacitat de ChatGPT per oferir assessorament legal, mèdic o financer personalitzat. Aquesta modificació, recollida en les polítiques d’ús actualitzades per OpenAI el 29 d’octubre de 2025, té implicacions importants tant per als usuaris com per als professionals que treballem amb IA i amb clients reals.

Què ha canviat exactament?

La política d’ús revisada per OpenAI estableix que les seves eines no s’han d’utilitzar per proporcionar assessorament personalitzat que requereixi una llicència professional, com és el cas del dret, la medicina o les finances, sense la participació adequada d’un professional acreditat. Això significa que la IA pot continuar aportant explicacions sobre conceptes, principis o definicions generals, però no pot substituir el criteri ni l’experiència d’un advocat, metge o assessor financer amb llicència.

Aquest canvi no limita l’accés a informació general —per exemple, explicacions sobre què és una clàusula contractual o què implica una llei concreta—, però sí que prohibeix que la intel·ligència artificial actuï com a assessor legal personalitzat en situacions concretes sense supervisió humana.

Per què ho ha fet OpenAI?

La raó principal d’aquesta actualització es fonamenta en dos pilars:

1. Seguretat de l’usuari i responsabilitat

La IA pot generar informació incorrecta o imprecisa si se li sol·licita una recomanació específica. En àmbits sensibles com el dret, els errors poden tenir conseqüències greus (decisions incorrectes, pèrdua de drets, obligacions mal interpretades). En reforçar aquests límits, OpenAI busca evitar que els usuaris confiïn en respostes que semblen professionals però no ho són.

2. Reducció de responsabilitat legal

Permetre que una IA ofereixi assessorament específic sense supervisió humana pot exposar tant OpenAI com els seus usuaris a riscos legals i regulatoris. El canvi també respon a un entorn normatiu global en transformació, on alguns països comencen a exigir límits clars a l’ús de la IA en àrees regulades —com passa amb la Llei d’IA de la Unió Europea, que impulsa estàndards de seguretat i responsabilitat.

Què significa això per a la pràctica legal?

Per a despatxos, consultories i professionals del dret, aquesta actualització no és necessàriament negativa. De fet, comporta beneficis clars:

Reforça la necessitat del criteri humà

La IA continua sent útil per a tasques com:

  • Generar resums de textos legals

  • Explicar conceptes jurídics

  • Oferir exemples de clàusules o processos generals

Sempre sota la supervisió d’un professional que pot validar i contextualitzar aquesta informació.

Ajuda a diferenciar rols

El sistema deixa clar que la tecnologia és una eina de suport, no un substitut de l’advocat. Això impulsa els professionals a aprofitar la IA per a tasques complementàries, alliberant temps per al treball expert que realment aporta valor al client.

Fomenta una col·laboració IA + professional

Un despatx modern pot combinar:

  • La velocitat i la capacitat de processament de la IA per a resums, cerques i suport documental

  • Amb l’experiència i la responsabilitat legal del professional humà per emetre conclusions, decisions i recomanacions personalitzades

La IA ja no pot ajudar amb temes legals?

No exactament. La política no elimina l’accés a informació general o educativa sobre temes jurídics. Pots continuar demanant a ChatGPT que expliqui què és una clàusula d’arrendament, què implica una LOPD o com funcionen determinats processos.

El que sí que queda prohibit és que la IA doni assessorament concret sobre el teu cas específic, personalitzat, com si fos un advocat humà sense llicència que el supervisi.

Això no és una imposició als usuaris, sinó una aclariment que la IA no substitueix la figura del professional:
la tecnologia dona suport, però el criteri professional certifica i assumeix la responsabilitat.

IA i professionals humans: enemics o aliats?

Lluny de representar una amenaça, aquestes polítiques reforcen una idea fonamental: la intel·ligència artificial és una eina potent, però necessita del judici crític, ètic i professional d’una persona real per ser realment útil en àmbits regulats.

En l’àmbit legal, per exemple:

  • La IA pot analitzar grans quantitats de text legal en segons

  • Pot suggerir models o exemples basats en normes

  • Pot agilitzar tasques repetitives

Però només un advocat pot interpretar, adaptar i aplicar aquest coneixement a un cas concret, amb responsabilitat i rigor.

Aquest equilibri és el futur de l’exercici professional: tecnologia que potencia l’eficiència i humans que garanteixen qualitat, precisió i compliment normatiu.

Quines oportunitats obre aquest canvi?

Per a consultories i despatxos com PymeLegal, aquesta actualització és una oportunitat per:

  • Reforçar la proposta de valor com a experts legals amb criteri propi

  • Integrar la IA com a eina interna de suport i no com a substitut de l’assessorament

  • Oferir als nostres clients assessorament certificat, personalitzat i amb responsabilització humana

Mentre algunes eines redueixen la profunditat del seu abast, els professionals que combinem tecnologia + expertesa humana real guanyem credibilitat i rellevància.

Perquè, al final, el coneixement és universal, però la responsabilitat és personal i professional.

La nova política d’OpenAI representa una evolució important en l’ús responsable de la intel·ligència artificial. Més enllà de limitar la IA, convida a reconèixer una cosa que sempre ha estat certa: la tecnologia és poderosa, però el criteri professional no és substituïble.

I en sectors com el dret, això és clau per protegir les persones i les organitzacions, garantint informació fiable, segura i amb responsabilitat real al darrere.