La selección: la tecnología no tiene boca, pero también se equivoca

Source: The Conversation – (in Spanish) – By Laura G. de Rivera, Ciencia + Tecnología, The Conversation

cat_theboss/Shutterstock

Quizá se haya preguntado alguna vez cómo puede una red social como LinkedIn recomendarle seguir a gente que, en realidad, sí conoce, pero no pertenece a su círculo profesional o laboral. Es porque se emplea una tecnología de inteligencia artificial (IA) conocida como redes neuronales gráficas, que funciona trazando y hallando conexiones –de todo tipo– entre distintos nodos. Esos nodos pueden ser personas, como ocurre en LinkedIn. Pero también pueden ser principios activos de medicamentos y enfermedades, con lo que esta clase de algoritmos resultan útiles para encontrar cierto vínculo entre una sustancia y el mecanismo de acción para tratar una dolencia y, así, sugerir nuevos usos para fármacos ya existentes.

Y todo ello, sin necesidad de andar probando uno por uno en el laboratorio durante largos y costosos procesos. Los investigadores no se pueden ahorrar, eso sí, el momento de comprobar si ese fármaco sugerido por la IA de verdad funciona en la realidad. Puede ser que sea un éxito. Pero también puede ser que no. Eso debemos recordarlo siempre.

Que las predicciones de un algoritmo no son fiables al cien por cien lo saben bien todos aquellos presos que han visto rechazada su petición de libertad condicional por la decisión de un programa de deep learning. De hecho, los estudios demuestran que la capacidad predictiva de los algoritmos en el ámbito penitenciario es muy limitada: en torno a la mitad de las veces fallan. Para más inri, fallan sobre todo con las personas más marginadas históricamente, entre ellas, los inmigrantes, a los que la Tabla de Valoración de Riesgo que se usa en cárceles españolas otorga automáticamente entre un 85 % y un 100 % de probabilidades de quebrantamiento de la ley.

Un ejemplo más de que la inteligencia artificial no está pensada para favorecer a minorías ni a grupos vulnerables es el caso de las personas con discapacidad, que son quienes más barreras encuentran para beneficiarse de las nuevas herramientas… y quienes más la necesitan. La solución, según los expertos, pasa por tenerles en cuenta desde el principio, en el diseño de esos programas informáticos. Porque de nada sirven las pomposas promesas de la tecnología si luego, en la práctica, no podemos aprovecharla todos por igual. La clave está no solo en el diseño atractivo, sino también en la utilidad del producto diseñado.

Nos corresponde, en última instancia, a los ciudadanos defender cómo queremos que sea esa tecnología que invade cada rincón de la sociedad. Aunque, para entrar en el debate público y poder saber lo que queremos, antes tenemos que saber también lo que tenemos, lo que nos ofrecen. Y la mejor forma de entenderlo es llamando a las cosas por su nombre, sin dejarnos confundir por métáforas que convierten a la IA en persona, presentándola como poseedora de inteligencia superior a la humana.

Así que aquí les dejamos algunos deberes para poner a trabajar eso que todos tenemos, que nos sale gratis y que no tiene impacto medioambiental: nuestro cerebro.

The Conversation

ref. La selección: la tecnología no tiene boca, pero también se equivoca – https://theconversation.com/la-seleccion-la-tecnologia-no-tiene-boca-pero-tambien-se-equivoca-261981