Opinión: la inteligencia artificial en las leyes

¿Puede una IA reemplazar a un juez?

De los muchos avances en aplicaciones inteligentes, tal vez una de las más controversiales sean aquellas que avanzan sobre los derechos humanos a la libertad y expresión. Hay quienes sostienen que esto es algo imposible, pero también hay quienes sospechan que pueden ser un peligro que se les otorgara la autoridad para decidir en leyes.

Tener un juez digital es algo que pareciera ser una idea loca que se escapó de las películas. Pero parece que a nivel mundial la humanidad se ha metido en ese filme y toca actuar: si se trata de impartir la justicia, lo humano es primordial. Eso mismo afirmaba en 2021 el columnista Mauro Berchi, cuando presentaba la noticia de la creación de un sistema informático para agilizar los trámites judiciales en materia de violencia de género. El proyecto, que vincula 43 comisarías de toda Argentina con oficinas judiciales, es del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho UBA (UBA IALAB). La iniciativa no es aislada, sino que surge en un contexto mundial que va en el mismo sentido: en 2016 un reconocido bufete de abogados en Estados Unidos de Norteamérica desarrolló un «abogado virtual», en 2014 Estonia instaura un sistema de residencia electrónica con controles de leyes migratorias que involucran la nacionalidad digital, y no se quedan atrás países como Dubái que utiliza programas de predicción de crímenes y para predecir hipótesis de conflicto, Gran Bretaña, que los emplea para anticipar el sentido de las resoluciones de las Cortes, y los Estados Unidos, que compilaron en una IA el saber experto de una de las juezas más reconocidas en su país llamada Ruth Bader Ginsburg.

Sin embargo «un algoritmo no es capaz de detectar las razones por las cuales se producen las conductas humanas», opinó en su momento para el medio RTVE el magistrado gallego, Luis Villares. Según el especialista, la incapacidad de comprender las emociones influyen en el proceso de evaluación y sentencia.

El problema también fue astutamente resaltado por Alberto García en el medio Unir.net quien pone en duda que un sistema de IA sea capaz de administrar completamente por sí mismo el derecho. El experto cuestiona el orden de prioridades alterado que esto implicaría, ya que «los derechos fundamentales de las personas no pueden subordinarse a criterios como la mera mejora de la eficiencia o el ahorro de costes». También enumera una serie de derechos que se vulneran de manera sistemática con el avance de los sistemas inteligentes en la vida actual. Entre ellos, tal vez los más preocupantes sean el derecho a juicio justo (ya que la operatoria interna de la IA es desconocida por el acusado), derecho a la libertad de reunión y asociación (eventualmente al usarse para identificar sospechosos), o miembros de una asamblea, y el derecho a la privacidad y a la protección de datos (en referencia directa a los actuales sistemas de análisis de sentimientos que funcionan en las redes). La idea a plantearse entonces es, dado el estado de situación de estas tecnologías, ¿cuáles serían las regulaciones que nos faltan y que podrían protegernos? ¿Los jueces artificiales deben reemplazar o asistir a los jueces de carne y hueso? Finalmente, y no menos importante: ¿cuándo se le dará participación a la sociedad general en el proceso de negociar los derechos que hemos sabido conseguir y administrar a lo largo de la historia? Toca a todos nosotros reflexionar y no quedarnos como espectadores ante esta controversial evolución de los derechos individuales frente a la tecnología.

Daniela López De Luise

Academia Nacional de Ciencias de Buenos Aires

Académica coordinadora CETI