Maria del Pilar Tello
¿Reemplazar la inteligencia humana?
Las máquinas pueden ser más justas que las personas
En estos días todo el mundo habla de la Inteligencia Artificial. En las aulas debatimos la utilidad del ChatGPT y en las redacciones se difunden los temores de que las máquinas lleguen a ser tan listas como los humanos y que los sustituyan. No sabemos cómo será el futuro, pero en el presente estamos en la incertidumbre acerca de las máquinas que parecen tan competitivas y eficaces como para desplazarnos. Los algoritmos parecen solucionar muchos problemas y ya nos guían en muchos aspectos. No son humanos, aunque pueden ser muy poderosos, solo aprenden de lo que ven y responden a programaciones puntuales.
A su opacidad se une su falibilidad. Las máquinas reproducen lo que hacemos y pensamos. El riesgo surge cuando a sabiendas de estas limitaciones se delegan en ellas decisiones de trascendencia sin temor a que esa autonomía que les concedemos pueda perjudicar personas, gobiernos o sociedades.
La recomendación de cautela en el uso de los algoritmos se queda corta cuando se aplican en terrenos muy delicados. Desde filtrar currículos en la contratación de personal a calcular la solvencia crediticia cuando pedimos un préstamo. Desde determinar la libertad condicional de un interno hasta calcular posibilidades de que un recién nacido sufra malos tratos en sus primeros años (*).
Demasiados usos hacen posibles muchos errores. A veces procesan mal los datos o éstos pueden ser incorrectos. Manuel G. Pascual, experimentado cronista tecnológico de El País, da ejemplos. Cuando Google procesó las imágenes de tres jóvenes afroamericanos etiquetándolos como gorilas. O cuando Word2Vec, la red neuronal de Google Brain, aprendió que “hombre es a rey lo que mujer a reina”, pero también que “padre es a médico lo que madre a enfermera”. Son sesgos que reproducen prejuicios y patrones existentes en la sociedad.
Pascual trae el ejemplo de la investigadora afroamericana del MIT, Joy Buolamwini, quién usó un sistema de reconocimiento facial, que no detectaba su cara. En Hong Kong le pasó lo mismo. Se puso una máscara de color blanco y dejó de ser invisible para la máquina.
Buolamwini, impactada por su experiencia, fundó la asociación Algorithmic Justice League, para concientizar sobre el impacto de la Inteligencia Artificial en una sociedad desigual y con mucha discriminación.
Manuel G. Pascual, considera tres tipos de fuentes en los sesgos algorítmicos: los datos con los que trabajan que vienen de la gente; el sistema informático que los procesa y les permite el aprendizaje automático con el que adquieren sesgos; y la interacción entre la persona y el sistema. La idea es revisar los sistemas algorítmicos antes de que entren en acción y durante su aplicación. Lo contempla el reglamento europeo, con un Comité de Inteligencia Artificial, clave para la coordinación entre autoridades nacionales de control.
Analizar los aspectos técnicos de los algoritmos es diferente a ver cómo se usan. Para Baeza-Yates, citado por Pascual, los algoritmos tomarán la misma decisión ante situaciones iguales. Eso no pasa con los humanos en quienes el ánimo influye en el enfoque de los problemas. Las máquinas pueden ser más justas que las personas. Baeza-Yates presenta el siguiente dilema. ¿Quién prefieres que te juzgue, un algoritmo sesgado o un juez que, además de sus sesgos, puede tener un mal día?”.
* MANUEL G. PASCUAL. Cuando el algoritmo se equivoca. El País 26 de Junio 2021
COMENTARIOS