Hace un año el presidente de la Corte Suprema de los Estados Unidos, John G. Roberts Jr., visitó el Instituto Politécnico Rensselaer dedicado a la investigación científica y técnica. Todos los periodistas que cubrían la noticia se quedaron sorprendidos cuando la presidenta de dicha institución le preguntó: «¿Puede imaginarse un día en que las máquinas, dotadas de inteligencia artificial, ayuden a los tribunales de justicia a determinar los hechos relevantes e, incluso, a tomar decisiones judiciales?». La respuesta no tardó en escucharse: «Ése día ya ha llegado. Y está poniendo una gran presión sobre cómo el poder judicial hace las cosas».
EL MAGISTRADO estaba pensando en el «caso Loomis». En el año 2013 Eric Loomis fue detenido por agentes de policía del Estado de Wisconsin (Estados Unidos) cuando conducía un vehículo implicado en un reciente tiroteo. Se le acusaba de huir de la policía y utilizar un vehículo sin la autorización de su propietario. El señor Loomis se declaró culpable de ambos delitos con la esperanza de que no tuviera que ingresar en prisión. Durante la vista para decidir sobre su libertad condicional, el fiscal aportó un informe elaborado por el programa informático Compas, desarrollado por la empresa privada Northpointe Inc, según el cual el señor Loomis tenía un riesgo elevado de reincidencia y de cometer actos violentos. El informe concluía que el condenado representada un «alto riesgo para la comunidad». Partiendo de tales consideraciones, el juez impuso al señor Loomis una pena de seis años de prisión y otros cinco en régimen de libertad vigilada. La defensa del condenado recurrió la sentencia alegando que se había vulnerado el derecho a un proceso con todas las garantías porque no podía discutir los métodos utilizados por el programa informático Compas dado que el algoritmo era secreto y solo lo conocía la empresa que lo había desarrollado. Sin embargo, tales argumentos no fueron acogidos por la Corte Suprema del Estado de Wisconsin. Los jueces argumentaron que, en definitiva, el programa informático se había basado únicamente en los factores habituales para medir la peligrosidad criminal futura como, por ejemplo, huir de la policía y el historial delictivo previo.
En los últimos años hemos asistido a un proceso constante de automatización del sector servicios, construcción, medicina, alimentación, defensa o industria aeroespacial. Se estima que en todo el mundo existen más de un millón y medio de robots industriales. Según un informe elaborado por el Bank of America Merrill Lynch, el mercado global de la robótica y la inteligencia artificial tendrá dentro de pocos años un valor de 153.000 millones dólares.
Dentro de este proceso tecnológico, no resulta aventurado pensar que la inteligencia artificial llegue a sectores de nuestra actividad que tradicionalmente considerábamos irrenunciables, entre ellos, al arte de juzgar a las personas de acuerdo con las leyes votadas en un proceso democrático. El «caso Loomis» representa a la perfección hasta qué punto estamos obnubilados por la perfección matemática. Supone, en definitiva, que la decisión de enviar a una persona a prisión depende de la conclusión de un algoritmo. Estamos asumiendo que la máquina es mucho más precisa y fiable que el juez que analiza un caso con arreglo a su conocimiento de la ley y su experiencia profesional. Es posible que el software Compas utilizado en la justicia penal norteamericana analice múltiples variables para emitir una conclusión. Sin embargo, el algoritmo carece de la capacidad humana para individualizar una sentencia dado que, por regla general, está programado en base a una causalidad unidireccional: si se produce A luego ocurrirá B. ¿Qué ocurrirá, por ejemplo, si el sujeto quiere rehabilitarse? ¿Se va a predecir siempre su comportamiento futuro en base exclusivamente a los errores que ha cometido en el pasado?
LA UTILIZACIÓN de la inteligencia artificial en la administración de Justicia plantea numerosos interrogantes. ¿Quién elabora el software? ¿Qué variables tiene en cuenta? ¿Cómo se pueden rebatir sus conclusiones? ¿Puede desvelarse el algoritmo cuando esté en juego la libertad de una persona? Todas estas cuestiones redundan, en definitiva, en una mucho más trascendental: ¿estamos dispuestos a ser juzgados por máquinas? Quizá sea el momento de recordar las palabras de Marvin Minsky, padre de la Inteligencia Artificial, pronunciadas hace más de cuarenta años en la Revista «Life»: «Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte, decidirán mantenernos como mascotas».