Boletin N2 CLC - Flipbook - Page 12
María Fernanda Mar琀nez Ferro1
Betsy Perafán Liévano2
Tutora (auxiliar de docencia) en la Facultad
de Derecho de la Universidad de los Andes
(Colombia)
Profesora asociada de la Facultad de
Derecho de la Universidad de los Andes
(Colombia)
¿Una AlIAda del Lenguaje Claro?
E
3. Falsa confianza y brecha de acceso a la jus琀椀cia:
personas de escasos recursos podrían recurrir
a la IA como si fuera un abogado sus琀椀tuto, sin
asesoramiento profesional.
En el presente escrito sustentaremos brevemente que la Inteligencia Ar琀椀ficial Genera琀椀va
(IAGen) puede ser una aliada para promover el
lenguaje claro en la prác琀椀ca jurídica. Sin embargo,
también es un riesgo si reemplaza de forma
indebida la asesoría profesional.
4. Desprotección de datos sensibles: el uso de IA
abierta como ChatGPT requiere medidas estrictas
de anonimización y resguardo de la información
jurídica confidencial.
Según un estudio, en el ámbito médico las
respuestas generadas por IA son percibidas
como más claras, completas y empá琀椀cas que las
ofrecidas por los médicos en un foro virtual3.
Esta situación es replicable en el campo jurídico.
Además, si se le dan pautas de lenguaje claro,
la IAGen puede revisar el texto escrito por el
funcionario de la jus琀椀cia y darle retroalimentación para asegurar que sea comprensible.
También se puede u琀椀lizar la IAGen para adaptar
las explicaciones a diferentes audiencias.
Frente a estos riesgos, Muñoz6 sos琀椀ene que no
debería permi琀椀rse la creación de sistemas plenamente autónomos, sino únicamente aquellos de
autonomía limitada o restringida, siempre bajo
control y supervisión humana a lo largo de todo
el ciclo de la herramienta (diseño, desarrollo,
despliegue, uso y re琀椀rada).
Además, el autor enfa琀椀za que el respeto a los
derechos fundamentales debe ser la base de
cualquier marco regulador de la IA. Para ello,
el legislador debe buscar un equilibrio entre
seguridad, confianza, accesibilidad e innovación,
apoyándose en principios como precaución,
prevención, idoneidad y licitud.
Sin embargo, Ayers4 reconoce que existen riesgos
é琀椀cos. En el ámbito jurídico, estos riesgos se
pueden agrupar en cuatro grandes categorías5:
1. Errores o alucinaciones jurídicas: respuestas
claras pero incorrectas que el usuario no detecta.
En síntesis, la incorporación de sistemas de IAGen,
siempre supervisado, puede conver琀椀rse en una
herramienta para transformar textos jurídicos
complejos en explicaciones comprensibles, sin
descuidar la precisión y la técnica del derecho.
2. Sesgos: la IA puede replicar prejuicios sociales,
lo que genera discriminaciones injus琀椀ficadas.
1. Coordinadora de Retos en el Semillero de Inves琀椀gación en Lenguaje Claro de la misma universidad. Correo-e:
mf.mar琀椀nezf@uniandes.edu.co
2. Directora del Semillero de Inves琀椀gación en Lenguaje Claro de la misma universidad. Co-fundadora de la Red de Lenguaje Claro de
Colombia. Correo-e: bperafan@uniandes.edu.co
3. Ayers JW, Poliak A, Dredze M, et al. Comparing Physician and Ar琀椀ficial Intelligence Chatbot Responses to Pa琀椀ent Ques琀椀ons Posted
to a Public Social Media Forum. JAMA Intern Med. 2023;183(6):589–596. doi:10.1001/jamainternmed.2023.1838
4. Idem.
5. Abadías Selma, Alfredo, and Daniel González Uriel. El impacto de la IA en el aprendizaje y en la prác琀椀ca del derecho. Aranzadi LA
LEY, 2024. Digitalia, h琀琀ps://www-digitaliapublishing-com.ezproxy.uniandes.edu.co/a/179070
6. Muñoz Vela, José Manuel, Derecho Digital e Innovación. Digital Law and Innova琀椀on Review Núm. 14 Pág. 6.
10