Inteligencia artificial: Información incompleta, riesgo interpretativo y alucinaciones [MARTIN, 2025]
Inteligencia artificial: Información incompleta, riesgo interpretativo y alucinaciones
Mg. José-Manuel Martin Coronado
Socio Principal - EMAE
La inteligencia artificial (IA) ha llegado para quedarse y ha influido en el mundo jurídico. Es muy frecuente que las personas consulten primero a una inteligencia artificial antes que a un abogado, incluso para la redacción de documentos legales.
Al respecto, la IA no se autolimita y produce lo que se le solicita. ¿Pero, lo hace bien? La respuesta es no tanto como se espera. En efecto, con la finalidad de ahorrarse dinero y sin las habilidades jurídicas necesarias para identificar su la respuesta o el documento son efectivamente correctos, el resultado de la consulta al inteligencia artificial no tiene más de 95% ó 90% de probabilidad de éxito. Esto es particularmente grave si a partir de esta finalidad comienzan a realizar actos jurídicos y/o iniciar procedimientos administrativos, ya que el resultado puede ser evidente desfavorable.
No obstante, el problema más grave es cuando se trata de un letrado (abogado, juez, fiscal) ó estudiante de derecho hacen la referida consulta. En teoría no tienen el incentivo del dinero y sí cuentan con habilidades jurídicas (por lo menos básicas o intermedias), pero igual esperan obtener dicha tasa de éxito. Resulta claro que un abogado experto puede identificar fácilmente si la IA está incurriendo en un error, pero si su nivel es ligeramente inferior, dicha capacidad se ve muy limitada. Algunos abogados acuden por simple curiosidad, otros porque dudan de la respuesta correcta y otros porque, se trata de una consulta fuera de su área de experiencia. Estos últimos casos no son distintos a los indicados en el párrafo anterior respecto a los no letrados.
Ahora bien, asumiendo que ello es inevitable, existen tres problemas adicionales aplicables tanto a letrados y no letrados. Primero, el problema de la información incompleta. Justamente aquellos no letrados se encuentran más en riesgo, porque esencialmente no conocen del tema que están consultando, por lo que es riesgo de proporcionar información incompleta a la IA es demasiado alto. Ese riesgo sería ligeramente menor en los letrados u otros profesionales, aunque la información completa al 100% no existe, y eso desde ya es un riesgo para que la IA complete los vacíos sin decirnoslo. Por tal motivo, sólo en los problemas más simples y restringidos, es posible obtener respuestas correctas, pero ya no en los problemas más complejos, en el extremo que requieran más información para resolverlos.
En segundo lugar, y nuevamente asumiendo que se le da una información 99% completa, aún así existe el riesgo interpretativo. No es un problema de información per se, sino de interpretación de la información. En efecto, las palabras en lenguaje (natural) son realmente ambiguas, máxime si se trata con letrados, intereses forzados y limitaciones en técnicas interpretativas (ej. literalidad estricta). A veces el contexto y la finalidad, juegan un rol preponderando en la interpretación de un párrafo. Esto no sólo se aplica a temas legales, sino también temas de la realidad en general o temas cientificos que sean controvertidos o tengan un margen de error.
Finalmente, si logramos 99% de información y creer en el aforismo in claris non fit interpretatio, aún nos queda el gran problema de la IA: La alucinación. Este problema ya ha sido documentado en las diversas investigaciones sobre el desempeño de las IA. No sólo es un tema de memoria, que incluso podría ser un problema independiente, sino que en algún momento de la discusión con la IA, esta comienza a tergiversar la información ya validada de la conversación, y procede a olvidar correcciones ó parámetros conversacionales, o peor aún, no entender u omitir las nuevas indicaciones después de un punto determinado. La consecuencia es simplemente una respuesta totalmente desconectada de la conversación con la IA. Nuevamente, los profesionales expertos son capaces de detectar estos problemas, y en algunos casos, cuando la alucinación es demasiado evidente, aquellas personas no expertas también lo pueden hacer, si están atentas.
En resumen, se espera mucho de la IA, y la concepción social que se le ha dado es demasiado alta, comparada con la realidad. Su capacidad de engañarnos al poder responder preguntas operativas de manera instatáneas hace presumir que es realmente inteligente. No obstante, la IA no es otra cosa que un banco de respuestas autovalidado, no existiendo oficialmente un ente rector, sino a la merced de lo que los propios usuarios no objeten como falso. Y dicha verdad, o falsedad, básicamente depende si el usuario es lo suficientemente crítico de lo que está leyendo como respuesta automática. Lamentablemente, la tendencia actual de "respuesta-aceptante" no genera buenas perspectivas sobre la toma de conciencia respecto de estas limitaciones.
Comments
Post a Comment