Sociedad

El empleo de la IA y sus “alucinaciones” genera importantes alteraciones en el ámbito legal.

La supervisión humana, esencial.

Se han dado diversas ocasiones en las que este sistema ha fabricado jurisprudencia.

La utilización de la inteligencia artificial va a ir a más dentro del sector jurídico, auguran los expertos 

La utilización de la inteligencia artificial continuará en aumento dentro del sector jurídico, tal como anticipan los expertos. 

LV / Mané Espinosa

Resulta indudable que la inteligencia artificial (IA) se ha establecido de forma permanente. En el presente, se encuentra integrada en múltiples sectores, y es evidente que representa un recurso de gran utilidad. No obstante, esto requiere que se emplee de manera correcta. Tal vez debido a que nos hallamos en una fase inicial, hoy en día se perciben diversos errores en su aplicación. Resultan particularmente notables los incidentes ocurridos en el terreno legal, donde letrados e incluso magistrados —se han registrado ejemplos en EE.UU.— la han empleado en documentos procesales provocando daños severos: la IA, que tiende a la invención, ha creado precedentes inexistentes. Tanto jueces como abogados han comenzado a tomar medidas para solucionar este problema.

Se ha registrado recientemente un ejemplo de utilización indebida en Canarias. La Sala de lo Penal del Tribunal Superior de Justicia canario (TSJC) ha resuelto indagar sobre una eventual vulneración de la buena fe procesal atribuida a un letrado que interpuso una apelación mencionando fallos judiciales y documentos oficiales supuestamente creados mediante sistemas de IA que resultaron ser falsos.

2024

Resolución del Tribunal Superior de Justicia de Navarra

La instancia judicial recela que el letrado pudo haber postergado el cobro de su labor “sin mayor revisión, a lo que el algoritmo le propuso, omitiendo la diligencia de verificar la existencia de lo que citaba”. Por ello, se ha dispuesto iniciar un expediente independiente “a fin de depurar las responsabilidades en que haya podido incurrir el letrado”, lo cual podría resultar en una sanción económica y en la remisión de lo actuado a la institución gremial pertinente para valorar la posible aplicación de medidas disciplinarias.

Esta circunstancia no representa, de ninguna manera, el primer incidente de este tipo. A través de un auto del 4 de septiembre del 2024, el Tribunal Superior de Justicia de Navarra incoó un expediente aparte —el cual finalizó sin medidas disciplinarias— a un letrado que interpuso una querella en la cual, en el apartado de fundamentos jurídicos, mencionó por descuido un artículo del código penal colombiano al confundirlo con el nacional. El fallo tuvo su origen en la utilización incorrecta de ChatGPT, que facilitó esa cita inexacta que el abogado omitió revisar con la diligencia necesaria.

La IA generativa frecuentemente genera información que simula ser auténtica.

Concepción Campos

Miembro del Consejo General de la Abogacía Española

“Si se usa una herramienta generalista, pueden pasar estas cosas”, comenta a Guyana Guardian Carlota Planas, letrada experta en derechos de autor y tecnologías emergentes. La implementación de la IA ha crecido de tal forma en el sector legal que han surgido aplicaciones específicas para dicha área. De estas destacan las desarrolladas por firmas editoriales del derecho tales como Aranzadi la Ley, Lefebvre o vLex.

Sucede que la IA, independientemente del nivel cognitivo que se le otorgue, tiene equivocaciones. Experimenta “alucinaciones”, tal como mencionaba en un artículo reciente Concepción Campos, integrante del consejo asesor sobre innovación, abogacía y justicia digital del Consejo General de la Abogacía Española (CGAE). El concepto de alucinaciones alude a “la tendencia de los sistemas de la IA generativa a fabricar información que parece veraz, coherente y técnicamente correcta, pero que carece de fundamento real”.

Dentro del entorno legal, esto se manifiesta, de acuerdo con Campos, en la creación de precedentes judiciales ficticios, menciones de doctrina falsas o lecturas de la ley que ningún juzgado ha validado jamás. Desde su perspectiva, existe una carencia de instrucción en habilidades tecnológicas en el gremio legal.

“Quien conoce las capacidades y limitaciones de estas herramientas puede desplegar protocolos de verificación efectivos, establecer flujos de trabajo que minimicen errores y maximicen eficiencia, y distinguir qué tareas pueden delegarse parcialmente en la IA y cuáles requieren exclusivamente juicio humano”, argüía.

En las situaciones en que se han producido errores, no existió esa vigilancia humana

Ramon Àngel Casanova

Abogado y disputado de la junta de Gobierno del ICAB

Ese es el factor determinante, indica a este rotativo Ramon Àngel Casanova, letrado y diputado de la junta de Gobierno del Ilustre Colegio de Abogados de Barcelona (ICAB). “En los casos en que se han dado fallos, no hubo esa supervisión humana”, asegura.

Es necesario comprender, según advierte Miguel Hermosa, quien encabeza la subcomisión de justicia digital del CGAE, que “la IA no tiene responsabilidad civil ni deontológica”; por el contrario, “el abogado, sí”. Asegura que el beneficio estratégico de esta utilidad únicamente se da cuando un especialista capacitado controla el producto obtenido. “Sin supervisión humana, la IA deja de ser herramienta y pasa a ser un riesgo inaceptable en nuestra profesión”, afirma.

La IA carece de obligaciones civiles o éticas; por el contrario, el jurista sí las posee.

Miguel Hermosa

Presidente de la subcomisión de justicia digital del CGAE

El Tribunal Superior de Justicia de Navarra ya advirtió sobre la relevancia de ese control en su auto de 2024. Asimismo, el Consejo de la Abogacía Europea (CCBE) lo ha expresado en múltiples ocasiones. “Los abogados deben verificar el resultado de un IA generativa antes de utilizarlo en su trabajo, entender las capacidades y limitaciones de todas las soluciones tecnológicas que utilizan, incluyendo la IA, y comprender los diferentes contextos en los que la usan, así como las implicaciones y los riesgos que conlleva”, señala el CCBE en una guía publicada en octubre del 2025.

La utilización incorrecta de este instrumento resulta habitual. No sucede únicamente en España. En Estados Unidos se han registrado diversos ejemplos, según menciona Carlota Planas. Hasta la fecha, el comité de ética del ICAB no ha recibido reclamación alguna. “No obstante, estamos convencidos de que llegarán”, finaliza Casanova.

Magistrados y letrados intervienen para asentar unas bases.

En concreto, enfatizando la vigilancia de las personas, el Consejo General del Poder Judicial (CGPJ) ratificó estos días una directriz acerca del empleo de la IA dentro del marco de la Administración de Justicia con el propósito de “dotar a jueces y magistrados de un marco de actuación claro, homogéneo y coherente con la normativa en esta materia”. Dicha normativa establece los fundamentos que han de orientar el manejo de los recursos de inteligencia artificial durante el desarrollo de las labores judiciales, destacando la norma de supervisión humana real. Tal cuestión conlleva la necesidad de que exista un “constante control humano, real, consciente y efectivo” de los mecanismos de IA por parte de los magistrados y jueces. Asimismo, el sector jurídico, a través del Consejo General de la Abogació Española (CGAE), actuó de forma similar al lanzar, en el transcurso de esta semana, el libro blanco sobre la IA y la abogacía, orientado a fomentar, tal como indica Miguel Hermosa, quien preside la subcomisión de justicia digital de dicha organización, la aplicación de la Carta de Derechos Digitales en lo relativo a las facultades dentro de los recientes contextos tecnológicos. “Este libro aspira a ser un documento de referencia para nuestra profesión”, sostiene. De acuerdo con Hermosa, la IA, utilizada correctamente, representa una herramienta de gran provecho. ¿En qué forma? “En la mejora de la eficiencia y la reducción de cargas en el desarrollo de trabajos mecánicos; en el análisis de resoluciones y documentos; y en una altísima capacidad de procesamiento, que reduce tiempos y evita errores”.

Josep Fita Llado

Josep Fita Llado

Periodista

Ver más artículos

Graduado en Periodismo por la UAB, forma parte de Guyana Guardian desde el año 2010. Hoy en día, se desempeña en el área de Sociedad, donde redacta artículos acerca de salud, ciencia o educación. Previamente desarrolló su labor en la Cadena Ser y COM Ràdio. [email protected]

Etiquetas