La inteligencia artificial (IA) está revolucionando numerosos sectores, incluido el ámbito legal. Herramientas como ChatGPT facilitan la automatización de tareas rutinarias, el análisis de grandes volúmenes de información y la redacción de documentos. Sin embargo, su uso incorrecto puede acarrear consecuencias graves, desde la vulneración de derechos fundamentales, como la protección de datos, hasta faltas a la ética profesional que perjudiquen la asistencia legal a los ciudadanos.
Un caso destacado ocurrió en 2023, cuando dos abogados estadounidenses fueron multados con 5.000 dólares por presentar un escrito judicial que contenía decisiones judiciales inexistentes generadas por ChatGPT. Los letrados, que defendían a un pasajero lesionado en un vuelo de Avianca, admitieron haber utilizado la IA sin verificar adecuadamente la veracidad de las referencias citadas. El juez consideró que actuaron de mala fe y les impuso la sanción correspondiente.
En España, se registró un incidente similar cuando un abogado presentó una querella en un juzgado de Navarra que incluía una referencia al Código Penal de Colombia, debido al uso inadecuado de ChatGPT. Aunque el Tribunal Superior de Justicia de Navarra no impuso sanciones, advirtió sobre los riesgos éticos y legales asociados al uso de tecnologías emergentes en el ámbito jurídico y enfatizó la importancia de un uso responsable.
Bufetes de abogados y asesorías jurídicas están incorporando estas herramientas para agilizar tareas que consumen mucho tiempo pero no requieren alta especialización, como la gestión de documentos o la revisión de contratos. Eugenio Ribón, decano del Ilustre Colegio de la Abogacía de Madrid, destacó en junio de 2023 que la IA puede mejorar la eficiencia y precisión en la elaboración de contratos y documentos legales.
No obstante, expertos como Isabel Rodríguez, responsable del área de servicios profesionales en Accenture España, señalan que la implementación de la IA debe ser «responsable y rigurosa» para evitar sesgos o discriminación. Además, subraya los riesgos relacionados con la fiabilidad de la información, la falta de contexto jurídico local y la vulnerabilidad en la privacidad y confidencialidad.
Miguel Aznar, abogado y socio de Balder IP Lawyers, alerta sobre la posibilidad de que estos sistemas proporcionen información desactualizada o incorrecta, lo que podría tener consecuencias negativas en la defensa de los clientes y en la reputación del despacho. Asimismo, enfatiza que una dependencia excesiva de la IA puede llevar a una relajación en el análisis legal profundo por parte de los profesionales.
Aunque la Ley de Enjuiciamiento Civil española exige el respeto a las reglas de la buena fe procesal, con sanciones que van desde el apercibimiento hasta multas de 180 a 6.000 euros, no existe una regulación específica sobre el uso de la IA en el ámbito legal. Sin embargo, se han emitido recomendaciones y guías para su correcta utilización. El Comité Técnico Estatal de la Administración Judicial Electrónica publicó en junio de 2024 una política de criterios mínimos que detalla los usos aceptados y prohibidos de la IA en la Administración de Justicia.
Manuel Mata, decano del Colegio de Castellón y presidente de la Comisión de Deontología del Consejo General de la Abogacía de España, afirma que los estatutos generales de la profesión y el código deontológico cuentan con «suficientes elementos para atajar o contrarrestar los riesgos» asociados al uso de la IA generativa. No obstante, advierte sobre la rapidez con la que avanza esta tecnología, lo que dificulta una adaptación simultánea de la regulación.
En conclusión, la inteligencia artificial ofrece un gran potencial para mejorar la eficiencia en el sector legal. Sin embargo, su uso debe ser cuidadoso y ético, garantizando siempre la veracidad de la información, la confidencialidad de los datos y el cumplimiento de las normas deontológicas para evitar consecuencias negativas tanto para los profesionales como para los clientes.
·····················
Este es un resumen comentado, basado en la noticia original de Nuria Morcillo publicada en EL PAÍS el 18 de febrero de 2025.
Puedes leer el artículo completo aquí: elpais.com/economia/2025-02-18/sentencias-falsas-leyes-extranjeras-y-filtrado-de-datos-los-riesgos-de-usar-chatgpt-se-cuelan-en-los-despachos-de-abogados.html
. . . .









