¿Cómo vamos a pensar la IA desde la práctica del derecho?

Leyendo el nuevo libro de Carlos Bravo Regidor (una serie de conversaciones con pensadorxs de disciplinas variadas) me topé, en medio de una pregunta, con una reflexión sobre internet que me hizo pensar que estamos a punto de cometer el mismo error con la inteligencia artificial (IA):

a propósito de la revolución que representaría internet, hubo mucho wishful thinking, mucho razonamiento motivado por un ánimo que hoy se lee rayano en lo incauto, casi en lo bobo. Es como si la ilusión que nos hacía esa tecnología se hubiera convertido en una licencia par no hacernos cargo de las ambigüedades, los desconciertos o los potenciales efectos contraproducentes que ya las constituían desde entonces” (Mar de dudas, Conversaciones para navegar el desconcierto, editorial Grano de Sal/Gatopardo, página 43).

La oleada de posibilidades digitales desatada por la introducción de ChatGPT y la llamada IA generativa está creando un furor que recuerda al del internet de finales del siglo XX. Si antes se pensó que internet facilitaría la comunicación, contribuiría a estrechar lazos humanos, provocaría el florecimiento del conocimiento o ayudaría a derrocar regímenes autoritarios, treinta años después de su popularización tenemos un panorama más desolador que esperanzador: múltiples sociedades viven atizadas por la polarización alimentada en gran medida por la manera en que funcionan las redes sociales; un puñado de empresas tecnológicas dominan el mundo digital amasando un poder antes inimaginable; gobiernos de todos los colores inundan de noticias falsas toda clase de espacios digitales a fin de consolidar posturas más autoritarias que democráticas y la expansión del conocimiento es en muchos casos una ilusión en la medida en que el uso intensivo de nuestros teléfonos celulares nos ha empantanado cognitivamente.

Desde la práctica del derecho, veo que ya hay cursos abundantes para explotar las bondades de la IA en el ámbito legal. Al menos en México, algunas autoridades y algunas personas cercanas al tema suelen hablar de la necesidad de no quedarnos a la zaga y aprender a explotar la IA para generar mejores servicios o ser más productivos. Su punto de partida es al parecer un deber unívoco: usar la tecnología para estar a la vanguardia.

Esa clase de posturas hacen eco del pasado y se leen igualmente incautas, rayando “casi en lo bobo”. Hay demasiadas preguntas que no se alcanzan a formular:

– ¿En verdad queremos “alimentar” a una IA con nuestros modos actuales de ejercer el derecho?

– En medio de nuestra crisis judicial y con cientos de personas juzgadoras que llegaron a sus puestos gracias a una elección amañada, ¿es conveniente que esas personas se apoyen en la IA cuando su propia capacidad jurídica es tan frágil?

– Con miles de escuelas de derecho en el país que son solo un negocio y a las que lo último que les interesa es la enseñanza del derecho, ¿de verdad las IA le ayudaría a las juventudes a formarse como profesionistas o más bien sustituiría unas capacidades no desarrolladas en las aulas?

– Si México carece de desarrollo tecnológico (al igual que ocurre con la mayoría de países de todo el mundo) para crear sus propias herramientas de IA, ¿cómo evitar que apoyar la práctica del derecho con las herramientas existentes no nos haga dependientes de empresas norteamericanas o chinas?

– Con un aparato de justicia crecientemente precarizado que produce una justicia tan lenta, las herramientas de IA podrían ser de gran ayuda pero, ¿la productividad debe ser una de las metas de un sistema de justicia o más bien sus metas principales pasan por la comprensión de lo humano que hasta la fecha es aun irreductible en términos binarios?

– Aplicar la IA en forma masiva al mundo del derecho, ¿qué implicaciones ambientales tiene? Las probables ventajas de esa aplicación, ¿son claramente superiores a los costos ambientales?

– Si las grandes empresas tecnológicas operan casi sin contrapesos en países como el nuestro, ¿cómo evitar que manipulen sus propias herramientas para favorecer sus intereses?

– Si nos apoyamos en herramientas de IA para suplir algunos de nuestros propios procesos cognitivos o de aprendizaje (como ya ocurre en muchas escuelas), ¿cómo vamos a evitar perder habilidades?

– ¿Qué ganamos y qué perdemos al “outsourcear” una parte importante de nuestro trabajo jurídico?

No tengo dudas de que un tribunal podría entregar más resultados haciendo uso de algunas herramientas de IA. Pero sí tengo dudas sobre lo que esa “mejora” traería consigo en el largo plazo. Hace años, cuando yo hacía laudos (como se llamaban las sentencias en materia laboral antes de la reforma de 2019) mi récord personal de proyectos de laudo (es decir, borradores que solo se convertían en resoluciones oficiales cuando eran suscritos por las personas titulares de una Junta de Conciliación y Arbitraje) elaborados en un mes fue de 80. Por supuesto, la mayoría de asuntos no eran especialmente complejos; de hecho, había días en que hacía solo juicios rebeldes (sin controversia de por medio) o de cumplimiento de amparo (que a veces implicaban cambiar solo un detalle de una resolución previa) para subir mis números. Pero para poder entregar tan buenos resultados tuve que pasar por varios años previos aprendiendo con lentitud.

El solo hecho de “vaciar” datos a una hoja o formato me iba permitiendo entender el contexto del conflicto o las particularidades de cada caso. Esa porción en la elaboración de una resolución puede ser fácilmente automatizable. De hecho, también puede entrenarse a una IA para proponer resoluciones de fondo de una sentencia. Sin embargo, ¿cómo nos entrenamos los humanos? Los tiempos digitales no son los mismos que los neuronales. Aprender a resolver asuntos toma su tiempo, como también lo toma aprender a generar estrategias de litigio exitosas. Si queremos aspirar a contar con justicia de calidad necesitamos asegurarnos de que quienes intervienen en ella (personas postulantes o juzgadoras) tengan el tiempo, la capacitación y el acompañamiento convenientes para que puedan tomar buenas decisiones. La experiencia humana en este sentido es lo que no proporciona una IA.

Mientras la potencia de las IA no deja de crecer, nuestros sistemas de educación o de impartición de justicia se han ido erosionando. Hemos hecho muchas cosas mal colectivamente para que esto pase, y ninguna IA va a solucionar estos problemas por sí sola. Pero pensar que las IAs nos van a llevar a un tipo de apocalipsis o a algún tipo de utopía son dos caras de la misma moneda: preferir el confort de la simpleza y con ello rehuir de las ambigüedades, los desconciertos o los potenciales efectos contraproducentes que herramientas tan poderosas pueden tener. Ya cometimos el error de confiar demasiado en las bondades de internet. Parece que tropezaremos con la misma piedra al confiar en las promesas de la industria de la IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *