Lun. Sep 27th, 2021

Por Daniel do Campo Spada
(PED-Grupo TV Mundus)

El mundo de los algoritmos va ganando espacio en nuestras vidas en una batalla que ya tiene su final escrito. La digitalización de nuestro devenir humano no es un futuro. Es un presente al que solo le resta seguir profundizando procesos, con todo lo que ello implica de positivo y negativo. La tecnología es un invento de los seres racionales y la complejidad del soporte madre se traslada a la creación. Así como Dios, que es el Creador de Todas las Cosas, está en todo, en el caso de las personas nuestras estructuras mentales se trasladan a todo lo que es hecho por nosotros, modificando incluso la naturaleza que nos fue dada. En el número 26 de la revista Review (Junio-Julio 2021, Buenos Aires, págs 12-13) el Juez Jed S. Rakoff (Distrito Sur de Nueva York en Estados Unidos) escribió una reseña sobre el libro “When Machines Can Be Judge, and Executioner: Justice in te Age of Artifical Inteligence” (Cuando las máquinas pueden ser Juez. La Justicia en la era de la Inteligencia Artificial. Nueva York. World Scientific. 134 págs) escrito por su colega Jueza Katherine B. Forrest. El volumen comenta la reciente y creciente utilización de un algoritmo de “previsibilidad criminal” que se está usando en varios tribunales penales en Estados Unidos.
Esta herramienta digital está siendo utilizada en los fallos en juicios por delitos penales para modificar las sentencias. Más allá de la penalidad por el delito en cuestión se agrega (y rara vez se quita) algo a la pena que debe cumplir el reo en base a un software llamado Correctional Offender Management Profiling for Alternative Sanctions (Perfiles de gestión de delincuentes correccionales para sanciones alternativas) COMPAS realizado por la empresa Northpointe. Lo que la autora del libro y Jueza advierte es que nota una importante arbitrariedad racial en esa “previsibilidad” de reincidencia.
¿Puede acaso un software creado por humanos ser neutral y objetivo cuando los mismos humanos no pueden ontológicamente serlo? Aun lo que pomposa e irresponsablemente se llama Inteligencia Artificial (IA) parte de un origen espurio. Si la harina está contaminada, también lo estará el pan y eso en el segmento digital no es diferente. El software indicado no es más que una base de datos a la que se le han agregado una serie de variables pre-formateadas que a su vez responder a valuaciones “diseñadas”. Como la empresa Northpointe no quiere que la competencia le robe el diseño las líneas de código están encriptadas y nadie de la propia Justicia accede a saber qué es lo que condena a una pena más larga a un condenado.
La nota de Rakoff en Review agrega que el COMPAS se nutre ciertas teorías del aprendizaje sociológico y psicológico que se están usando en los primeros procesadores de IA con auto-aprendizaje. Por lo tanto, podemos estar ya no en el umbral sino en la propia antesala de sistemas informáticos que empiecen a tomar decisiones sobre nuestra libertad, futuro y cualquier otro elemento de la vida humana que hasta ahora estaba en manos de… los humanos.

Por ped

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *